Amazon Web Services (AWS) erhält neben den kürzlich vorgestellten macOS Instanzen auf Basis von Mac minis eine weitere Neuerung. Es geht dabei um den Trainium, einen Chip für die Cloud-Computing-Sparte von Amazon der explizit zum Training neuronaler Netze entwickelt wurde. Wie die Inferentia-ASICs und die Graviton2-CPUs handelt es sich auch beim Trainium um eine Eigenentwicklung.
Kunden sollen Trainium ab dem zweiten Halbjahr 2021 nutzen können. Laut Amazon lag der Fokus in der Entwicklung auf einer sehr guten Performance im Verhältnis zum Preis. Die Instanzen soll laut Amazon unterhalb deren mit Intels Habana Gaudi liegen, welche wiederum schon ein 40 Prozent besseres Preis-Leistungs-Verhältnis besitzen als die p4d.24xlarge-Konfiguration mit acht Nvidia A100.
Technische Details unbekannt
Details zur Technik des Trainium-Chips und dessen Leistung hat Amazon bisher nicht veröffentlicht. Bekannt ist lediglich, dass die AWS Instanzen die höchste Teraflops-Leistung aller für maschinelles Lernen angebotenen Instanzen des Unternehmens haben werden.
Außerdem ist bekannt, dass die Cloud Standardframeworks die Pytorch, MXNet und Tensorflow unterstützt. Auch das Neuron genannte Software Development Kit (SDK) ist bereits von den Inferentia-ASICs bekannt.
Verfügbar ist Trainium im Sagemaker-Dienst und in den EC2-Instanzen (Elastic Compute Cloud). Häufig bei AWS genutzte Lernalgorithmen und Frameworks sollen bereits vorinstalliert sein.