19.05.2016, 14:57 Uhr
Googles lernender Prozessor macht smarte Apps noch schlauer
Auf der Entwicklerkonferenz I/O stellte Google seinen neuen Superchip vor - die Tensor Processing Unit (TPU). Jahrelang hat Google heimlich daran geforscht. Der KI-optimierte Prozessor macht smarte Assistenten und Ratgeber-Chatbots noch schlauer.
Im Geheimen hat Google einen eigenen Chip entwickelt und in eigenen Rechenzentren getestet. Die Info liess Google-Chef Sundar Pichai auf der Entwicklerkonferenz I/O quasi in einer Nebenbemerkung fallen. Die sogenannte Tensor Processing Unit (TPU) ist auf Machine Learning und Künstliche Intelligenz (KI) optimiert. Sie soll herkömmliche Prozessoren von Intel oder AMD in Sachen Performance um ein Vielfaches schlagen. Schneller heisst auch schlauer. Vor gut einem Jahr hat die Google-Software AlphaGO den damals besten Go-Spieler Lee Sedol bezwungen. Auch dort soll die TPU eine entscheidende Rolle gespielt haben. Nur wusste das damals noch keiner.
Smartere Apps dank Google-Superchip
Google hat auf der I/O smarte Assistenten wie die Messenger-App Allo und den Google Translator mit über 100 Sprachen vorgestellt. Die treibende Engine hinter solchen Anwendungen ist KI/Machine Learning. Unter strenger Geheimhaltung hat Google in den letzten Jahren die neue KI-TPU entwickelt. TPUs (wenn in Boards verbaut) könnten wie Festplatten in Server eingesetzt werden, sagte der Schweizer Google-Manager Urs Hölzle. Damit liesse sich die Rechenleistung einfach und schnell erweitern. Der neue Prozessor sei auf Machine-Learning-Applikationen optimiert, schreibt Norm Jouppi, Hardware-Ingenieur bei Google, in seinem Blog. Der Chip akzeptiert Unschärfen, ist also fehlertoleranter als die herkömmlichen CPUs, und benötigt daher weniger Transistoren pro Operation.
Drei Chip-Generationen übersprungen
"Wir arbeiten mit den neuen TPUs in unseren eigenen Rechenzentren seit über einem Jahr und haben herausgefunden, dass die Prozessoren die Rechenleistung pro Watt um Längen in die Höhe schrauben", schreibt der Google-Ingenieur. Der Performance-Gewinn entspricht etwa drei herkömmlichen Chip-Generationen nach Moore's Law. Google rechnet sich daher einen Innovationsvorsprung gegenüber Intel oder AMD von etwa sieben Jahren aus. Seine Stärken spielt der Prozessor besonders respektive lediglich bei Machine-Learning-Anwendungen aus. Google hat damit zum Beispiel sein Street View und die Relevanz der Ergebnisse seiner Suchmaschine optimiert.
Wie sieht die Chip-Architektur aus?
Währenddessen wird in den Blogs darüber spekuliert, wie Googles auf KI optimierte Chip-Architektur denn aussehen könnte. Diese Katze hat der Suchmaschinenkrösus auf der I/O noch nicht aus dem Sack gelassen. Einer der Blog-Teilnehmer wirft ein, dass die heutigen GPUs (Graphical Processing Units) auch bereits mit Unschärfe (lower precision) arbeiteten. Googles Innovationsvorsprung wäre dann nicht gar so gross, wie kommuniziert. Tensoren, nach denen Google den neuen Chip benannt hat, sind mathematische Objekte aus der Linearen Algebra und Differenzialgeometrie. Sie werden auch heute noch von Ingenieuren dazu verwendet, um zum Beispiel mehrdimensionale Räume (in der Informatik n-dimensionale Arrays) detaillierter abzubilden. Eine weitere Anwendung ist Einsteins Relativitätstheorie.