Amazon verstärkt seine Unterstützung für die KI-Forschung an Universitäten und investiert 110 Millionen US-Dollar in das Programm „Build on Trainium“. Ziel ist es, Hochschulen weltweit Zugang zu massiven Rechenressourcen zu bieten, um innovative KI-Modelle und Machine-Learning-Optimierungen zu entwickeln. Im Fokus steht die Nutzung von Amazons eigens entwickelten Trainium-Chips, die für das Training komplexer KI-Modelle ausgelegt sind. Die Investition ermöglicht Forschern nicht nur die Entwicklung neuer Architekturen, sondern fördert auch den Aufbau leistungsstarker ML-Bibliotheken und Optimierungen für groß angelegte, verteilte Systeme.
Amazon Web Services (AWS) hat dafür spezielle UltraCluster zusammengestellt, die aus bis zu 40.000 Trainium-Chips bestehen und eine enorm hohe Rechenleistung für anspruchsvolle KI-Workloads bieten. Die Rechenkapazitäten sollen es Universitäten ermöglichen, Fortschritte in Bereichen wie Algorithmenentwicklung, Optimierung von KI-Beschleunigern und paralleler Datenverarbeitung zu erzielen. Unter den teilnehmenden Forschungseinrichtungen ist das Carnegie Mellon University (CMU) Catalyst-Forschungsteam in Pennsylvania, das die Infrastruktur für Forschung an neuen Compiler-Optimierungen und Parallelisierungen nutzen wird.
Das Programm bringt auch eine finanzielle Komponente mit sich: Mehrere Runden der Amazon Research Awards ermöglichen es, Forschungsvorhaben über AWS-Trainium-Kredite zu fördern und Zugang zu den UltraCluster-Ressourcen zu erhalten. Diese Unterstützung ermöglicht es den Universitäten, ihre Forschung trotz begrenzter Budgets voranzutreiben, und kommt auch der Ausbildung zukünftiger KI-Experten zugute. Professor Christopher Fletcher von der University of California, Berkeley, hebt die Vorteile der Flexibilität der Trainium-Plattform hervor, die tiefe Hardwarezugriffe und Anpassungen erlaubt und damit neue Forschungsansätze eröffnet.
Um die Innovationskraft der Forscher optimal zu unterstützen, wurde zudem die sogenannte Neuron Kernel Interface (NKI) eingeführt, eine Schnittstelle, die direkte Programmzugriffe auf den Instruction-Set der Chips ermöglicht. Diese Erweiterung erleichtert die Optimierung von Rechenleistung und erlaubt es den Forschern, spezifische Anpassungen und Optimierungen an der Hardware vorzunehmen.
Über die technische Förderung hinaus schafft Amazon mit dem Neuron Data Science-Netzwerk ein virtuelles Forum für den Wissensaustausch unter Forschern und Entwicklern. Diese Community, von Amazons Chip-Entwickler Annapurna Labs initiiert, verbindet Spezialistenteams, Start-ups und die AWS Generative AI Innovation Center. Neben finanzieller und technischer Unterstützung werden teilnehmende Forscher auch dazu ermutigt, ihre Ergebnisse und Entwicklungen in Form von Open-Source-Bibliotheken der Öffentlichkeit zugänglich zu machen. Damit trägt Amazon maßgeblich dazu bei, die Weiterentwicklung generativer KI und maschinellen Lernens für die breite Forschungsgemeinschaft zu beschleunigen.