Maschinelles Lernen: Googles TPU stellt CPUs und GPUs in den Schatten

Mit seiner TPU (TensorFlow Processing Unit) hat Google bereits vor einiger Zeit einen Prozessor angekündigt einen neuartigen Prozessor angekündigt, der zwischen 15 und 30 Prozent schneller sein soll als traditionelle CPUs oder GPUs. Die TPU ist für den Einsatz eigenständig lernenden Systemen gedacht und wird mit einer CPU und einer GPU kombiniert. Für einen ersten Benchmark hat die Softwareschmiede jedoch einen relativ betagten Intel-Prozessor gewählt, der auf der Haswell-Architektur basiert. Auch die Nvidia-Kepler-GPU ist alles andere als neu. Der Chip befindet sich bereits seit 2015 in den Google-Rechenzentren im Einsatz und sorgt für die Optimierung verschiedener Dienste wie etwa Image Search, Photos oder der Cloud-Vision-API, wie Google bereits auf der vergangenen I/O-Entwicklerkonferenz durchblicken ließ. Dabei soll allerdings bereits eine verbesserte Version der TPU genutzt werden, was vermuten lässt, dass bereits eine zweite Generation der Architektur für die Chips verwendet wird.

Die hohen Performance-Zugewinne sollen zudem dadurch realisiert werden, dass die Code-Zeilen, die für die Konzeption einer Anwendung notwendig sind, reduziert werden können. Eine Vielzahl dieser Applikationen benötigt nicht mehr als 100 bis 1500 Zeilen, sodass die Leistung 30- bis 80-mal höher ausfallen soll als bei einer klassischen CPU-GPU-Paarung. Ohne seine TPUs müsste Google die Anzahl seiner Server nach eigenen Angaben verdoppeln um einige spezifische Dienste wie etwa Google Voice Search bewerkstelligen zu können.

Erstelle einen neuen Thread im News-Forum über dieses Thema
Dieser Thread ist für Kommentare geschlossen
2 Kommentare
Im Forum kommentieren
    Dein Kommentar
  • connor
    Sorry, aber in dem Text fehlen alle wichtigen Informationen. Wo genau ist der Chip schneller -> Matrixmultiplikation. Was optimiert er -> Anwendungen, die Matrixmultiplikation verwenden. Also stellt er mal garnix in den Schatten, ausser in dem speziellen Anwendungsfall. Und daher ist auch irrelevant, gegen was er gebenchmarkt wird. Das soll nur das Verhältnis zeigen. Vom kompakten multiword Befehlsaufbau fangen wir besser nicht erst an...das würde ja auch etwas erklären. Kurz gesagt ist das weder ein Ersatz für eine GPU, noch für eine CPU. Wie auch eine GPU (bisher noch; Nvidia hat schon drüber nachgedacht, das zu implementieren) kein Ersatz für eine CPU ist.
    0
  • zeutan
    In Hardware realisierte Algorithmen waren immer schon schneller und effizienter als Codezeilen. Und dort sind ASICs wiederum schneller und effizienter als FPGAs. Die Frage war immer nur, ab wann es sich für wen rentiert. Die zweite Seite der Medaillie ist, dass sich Code jederzeit ändern lässt. Beim FPGA ist es schon schwieriger, beim ASIC normaler weise gar nicht möglich. Auch das sind alte Binsenweisheiten. Schön also, dass es sich für google rentiert;-)
    0