Ein genauerer Blick auf DeepMind, die Google-KI, die StarCraft 2 beherrscht

closer look deepmind

Künstliche Intelligenz wird die Welt verändern. Es will nur zuerst Online-Spiele beherrschen

31. Mai 2020Diese Funktion wurde ursprünglich im Januar 2019 veröffentlicht.

Es wird Ihnen verziehen, wenn Sie davon ausgehen, dass die künstliche Intelligenz von DeepMind bereits ihre Stärken bewiesen hat.



Im Jahr 2016 beobachtete das berühmte Computerlabor, wie eines seiner KI-Programme das Undenkbare tat und ein Go-Spiel gegen den damaligen Weltmeister und Menschen Lee Sedol gewann. Das Beherrschen des alten chinesischen Brettspiels war nur ein Beispiel für das maschinelle Lernen, das DeepMind hofft, damit letztendlich Sektoren wie Wissenschaft, Gesundheitswesen und Energie revolutionieren zu können.

Für den nächsten Schritt auf dieser Reise hat DeepMind seine Aufmerksamkeit auf StarCraft II gerichtet. Das siebenjährige RTS ist zwar immer noch eine Sensation für den Sport, aber es ist kein offensichtlicher Schritt von Go. Immerhin - und mit Entschuldigung an Blizzard - gilt das 2.500 Jahre alte abstrakte Strategiespiel als Höhepunkt von Spieldesign, strategischer Tiefe und eleganter Komplexität. Aber das Besondere an Go - und diesem anderen großartigen KI-Sparringspartner, Schach - ist, dass es präzise geordnet und eng strukturiert ist. Trotz der entmutigenden Kombinationen möglicher Züge, die diese Spiele bieten, wird ihre Tiefe nicht unbedingt durch die Breite ergänzt.

Ein Multiplayer-RTS hingegen ist etwas chaotischer. Die besten StarCraft II Pro-Spieler können bis zu 800 sinnvolle Maus- und Tastaturaktionen pro Minute landen. Es ist ein dynamisches, unberechenbares Strategiespiel, das mit der Geschwindigkeit eines Bullet Hell Shmup gespielt wird, bei dem sich unzählige Interaktionssysteme in einem verwirrenden Gewirr drängeln. StarCraft II fordert von seinen Spielern, mit Unsicherheiten umzugehen und nuancierte räumliche Umgebungen zu verstehen. All dies ist eine ziemliche Herausforderung für eine KI.

YouTube-Miniaturansicht

Aus diesem Grund hat DeepMind ein KI-Programm namens AlphaStar entwickelt, das einen Lebenszweck hat: die Beherrschung des wettbewerbsfähigen Multiplayer-Modus von StarCraft II. Tatsächlich hat es sich bereits mit einigen der besten Spieler der Welt messen müssen.

Wir sind alle mehr als unsere eigene Erfahrung; Hunderte von Jahren mehr

Aus diesem Grund schlurfe ich in ein Ad-hoc-Fernsehstudio, das in der britischen Google-Zentrale eingerichtet wurde. In den letzten Wochen hat DeepMind - das dem Google-Mutterunternehmen Alphabet gehört - AlphaStar geschickt, um mit den angesehenen Profis von Team Liquid, Dario TLO Wünsch und Grzegorz MaNa Komincz, zu kämpfen. Jetzt ist das Unternehmen bereit, die aufgezeichneten Spiele zu teilen, und Kommentatoren, die die Spiele zuvor noch nicht gesehen haben, wurden eingezogen, um etwas Energie zu bringen. Eine sehr glatte Bühne ist bereit.

Was sie enthüllen wollen, fühlt sich wichtig an. Hier geht es nicht nur darum, dass die KI gegen zwei Esport-Teamkollegen antritt. AlphaStar stellt die Vorstellung in Frage, was Geschicklichkeit beim Spielen bedeutet. Die Auswirkungen könnten sich darauf auswirken, wie menschliche Profispieler spielen, wie zukünftige Titel entwickelt werden und natürlich, wie KI die menschlichen Fähigkeiten in der ganzen Welt verbessert.

DeepMind begann mit dem Aufbau eines künstlichen StarCraft II-Spielers ohne Sinn für das Spiel. In der Tat konnte das erste von ihnen erstellte StarCraft II-KI-Programm - oder 'Agent' - nicht einmal eine Maus und eine Tastatur verstehen, geschweige denn Regeln oder Strategien verstehen. Aber es steckte immer wieder weg, sah sich eine halbe Million menschlicher StarCraft-Spiele an und lernte die ganze Zeit. AlphaStar ahmte nach, experimentierte, scheiterte und lernte. Dies ist der kombinierte Prozess „Deep Learning“ und „Enforcement Learning“, der das Herzstück des DeepMind-Angebots bildet.

Bis zur BlizzCon 2018 Anfang November hatte AlphaStar die RTS-Regeln verstanden und einige grundlegende makrobasierte Strategien beherrscht. Bis zum 10. Dezember hatte die KI, nachdem sie zahlreiche Spiele gegen verschiedene Versionen von sich selbst gespielt hatte, den versiertesten menschlichen StarCraft-Spieler im DeepMind-Team geschlagen. Es war Zeit, sein Spiel zu verbessern.

Neun Tage später flog Team Liquid Manager TLO nach Großbritannien. Als Profi-StarCraft II-Spieler hat er alle verschiedenen Rennen des Spiels bestritten, ist aber als überaus fähiger Zerg-Spieler bekannt. AlphaStar hatte sich jedoch auf Protoss vs Protoss konzentriert, um das Lernen konsistent zu halten. Ein Nur-Protoss-Match gegen TLO wäre daher ein perfekter, sanfter erster Test - DeepMinds Agent gegen einen Experten außerhalb seiner Komfortzone zu stellen.

Fahrerlose Autos:Das ist wie Codemasters KI das Fahren beibringt

Zu Beginn des Streams schlägt AlphaStar TLO im ersten Spiel mit einem leise unkonventionellen Spielstil - und lehnt es ab, eine Choke-Point-Rampe abzumauern, was angesichts der ausgewählten Karte ein etablierter Ansatz ist. Aus dem Tor heraus hat die KI die Führung über die Menschen übernommen und scheint nicht übermäßig daran interessiert zu sein, nach den Regeln der Konvention zu tanzen. Bei aller Theorie, von der StarCraft-Spieler besessen sind, macht AlphaStar die Dinge bereits anders.

YouTube-Miniaturansicht

Der DeepMind-Agent muss jedoch so menschlich wie möglich sein. Es gibt Grenzen, wie schnell es interagieren kann, und Zugeständnisse, um sicherzustellen, dass sein Ansatz nicht so abstrakt ist, dass abstrakte Spiele nicht mehr spielbar sind. Tatsächlich hat TLO bei ihrem ersten Zusammenstoß mehr „Aktionen pro Minute“ als AlphaStar durchgeführt, was beweist, dass es kaum Gründe gibt, zu argumentieren, dass ein unfairer Geschwindigkeitsvorteil vorherrscht.

'Ich habe das Match sehr selbstbewusst begonnen', sagt TLO über seine Niederlage und grinst verwirrt. Dann behauptet der Team Liquid-Spieler, dass er aus dieser Erfahrung gelernt hat und sich bereit fühlt, AlphaStar in den nächsten Spielen zu besiegen.

Die Dinge laufen jedoch etwas anders. Mit jeder Runde wechselt AlphaStar seine Strategie. Die KI ist immer unerbittlich, immer effizient - aber niemals vorhersehbar. TLO wird mit 5: 0 geschlagen.

DeepMind hatte sich offensichtlich nicht zurückgehalten. AlphaStar kombiniert tatsächlich fünf verschiedene Agenten - so etwas wie eine Verbreitung verschiedener Versionen von sich. Darüber hinaus sagt DeepMind, dass AlphaStar rund 200 Jahre des Spiels gespielt hat, eine Tatsache, die TLO eindeutig als Trost empfunden hat. Aber tatsächlich ist das vergleichbarer mit menschlichem Lernen, als Sie vielleicht denken.

Die Entwicklung der KI

Die Entwicklung der KI

Künstliche Intelligenz gibt es seit vielen Jahren. Zuvor sahen wir jedoch, dass die 'enge KI' dominierte. Dieser Typ bietet hochspezialisierte Anwendungen. Denken Sie, dass die Pfadfindungs-KI einem NPC hilft, eine Spielumgebung zu durchqueren. Als nächstes kommt die allgemeine KI wie AlphaStar, die aus Erfahrungen lernen, ihre Fähigkeiten weiterentwickeln und Entscheidungen treffen kann. In ferner Zukunft werden wir uns der Super-KI zuwenden, die die menschliche Intelligenz und Fähigkeit deutlich übertreffen wird. Das kann sein - oder auch nicht - wenn der Roboteraufstand kommt.

    Diese 200 Jahre beinhalten allesjede Versionvon AlphaStar lernte sich selbst zu spielen. In ähnlicher Weise erbt ein StarCraft II-Spieler mit 500 Stunden Spielspaß auch das kollektive Lernen der Spieler, die vor ihnen waren, und derjenigen, mit denen sie gekämpft haben. Wir sind alle mehr als unsere eigene Erfahrung; Hunderte von Jahren mehr.

    Unabhängig davon war es Zeit, die Herausforderung anzunehmen. MaNa ist sowohl ein Talent als auch ein selbstbewusster Protoss-Spieler. Sicherlich würde AlphaStar jetzt sein Match erfüllen?

    Nach fünf Niederlagen in Folge durch AlphaStar scheint MaNa zu gleichen Teilen verärgert, entzückt und fasziniert zu sein. Wie TLO war er eindeutig überrascht. Während AlphaStar die Spielregeln genau befolgt, werden die etablierten Spielstrategien, die StarCraft II-Spieler gemeinsam entwickelt haben, einfach nicht beachtet.

    Echtzeitgespräch:Das besten RTS-Spiele auf dem PC

    MaNa erreicht zumindest eine rettende Gnade für sich selbst sowie für die öffentliche Anerkennung der Esportfähigkeiten und vielleicht der Menschheit im Allgemeinen. DeepMind veranstaltet ein Live-Spiel im Studio, bei dem Warzen und alles gestreamt werden. Und es stellt sich heraus, dass dies das erste Spiel gegen einen Profi ist, bei dem DeepMinds KI für die Verwendung der Player-Kamera gesperrt ist. AlphaStar sieht das Spiel nicht als solches, konnte jedoch zuvor einen gesamten Spielbereich erfassen, anstatt ihn durch eine Kameraansicht zu erleben.

    Dieses Mal gewinnt MaNa und ist eindeutig enorm erleichtert.

    Bei ausgeschalteten Kameras herrscht in DeepMinds temporärem Studio ein kollektives Gefühl der Erleuchtung. AlphaStar hat vielleicht seinen letzten Kampf verloren, aber ein Endergebnis von 11: 1 zugunsten der KI hat den Verstand ins Wanken gebracht. Und die Profispieler fühlen sich optimistisch reflektiert.

    Vielleicht können Menschen neue Ansätze von der KI lernen, genauso wie sie lernen, indem sie Menschen beobachten

    TLO teilt uns mit, dass MaNa bereits eine Taktik angewendet hat, die AlphaStar bereitgestellt und in realen Spielen verwendet hat. Wenn AlphaStar seinen Spielstil unvorhersehbar ändern kann, können Menschen vielleicht neue Ansätze daraus lernen, so wie die KI lernt, indem sie Menschen beobachten. In wettbewerbsorientierten Esports, die ursprünglich nicht von biologischen Organismen entwickelt wurden, tauchen möglicherweise störende neue Spieltheorien auf.

    Währenddessen unterhält sich das DeepMind-Team aufgeregt über die Auswirkungen hochqualifizierter KI-Spieler auf die Spieleentwicklung. Sie mögen letztendlich hoffen, dass ihre Technologie die globalen Lieferketten, die Katastrophenhilfe und die Arbeit von Angehörigen der Gesundheitsberufe verbessert, aber im Moment hat die Vorstellung, dass AIs auf menschlicher Ebene Spiele spielen, alle inspiriert. Was könnte AlphaStar für Spieletests bedeuten? Könnten seine Fähigkeiten nicht nur die Designvalidität eines bestimmten Spiels beurteilen, sondern tatsächlich in den kreativen Prozess einfließen? Könnte es AI gelingen, perfekt ausbalancierte Spiele zu erstellen, die frei von menschlichen Eingriffen sind?

    Bewegen Sie sich über:Kanone eilen die beste Strategiespiele auf dem PC

    Vielleicht reflektiert TLO. Aber er weist darauf hin, dass ein perfekt ausbalanciertes Spiel von Natur aus kein gutes Spiel sein könnte. Es sind schließlich winzige Unzulänglichkeiten beim Balancieren, die es StarCraft II-Spielern ermöglicht haben, eine so dichte Bibliothek der Spieltheorie um ihr geliebtes RTS herum aufzubauen. Hier kommt die Fähigkeit zu individuellem Flair und dramatischen Schicksalsschlägen her.

    KI kann uns vielleicht schon verbessern, aber das bedeutet nicht, dass Perfektion perfekt für Spiele ist.