Die Infineon Winter School gibt in erster Linie Einblick auf die Funktionsweise der Chip Fab of the Future. Sie beantwortet Fragen wie: Was ist notwendig, um die vollautomatische Produktion von Leistungshalbleitern auf 300 mm dünnen Wafern erfolgreich und nachhaltig zu betreiben, wie es am Infineon-Hauptsitz in Villach passiert? Wie kann eine Produktionslinie 24/7/365 ohne Unterbrechung laufen? Welche Systeme und Verfahren gibt es, um eine gleichbleibend hohe Qualität zu gewährleisten? Infineon-Experten und Top-Referenten von Universitäten werden in dieser Woche ihr Wissen bündeln, um diese und weitere Fragen zu beantworten.
Machine Learning (ML)-Anwendungen verändern nicht nur unsere Arbeit grundlegend. Auch im Privatleben ist ML in vielen Bereiche wie Gesundheitswesen, Finanzen, Transport, Medien, die Produktion von Informationen sowie die Kommunikationstechnologie selbst ein Thema. Die ML Systeme, die diese Arbeitsaufkommen ausführen, stecken im Moment zwar noch in den Kinderschuhen, entwickeln sich aber sehr rasch weiter. Einer der aktuellsten Forschungsgebiete befasst sich mit der zunehmenden Spezialisierung und der Verbesserung von Genauigkeit, Leistung und Anforderungen an die Ressourcen. Die Herausforderung besteht vor allem darin, heterogene Datenrepräsentationen sowie heterogene Hardware zu strukturieren, um eine einheitliche Basis für die ML-Prozesse zu errichten. Basierend auf sieben Jahren Forschung an Kompilierungs- und Laufzeittechniken für deklarative, großflächige ML in der Apache SystemML, wird Böhm die wichtigsten Erkenntnisse teilen und die Schlussfolgerungen über die derzeitigen Herausforderungen von ML zur Diskussion stellen.
Abstract:
Machine learning (ML) applications profoundly transform our private lives, many domains such as health care, finance, transportation, media, logistics, and production, as well as information and communications technology itself. ML systems to execute these workloads are, however, still in their infancy and rapidly evolving. A major trend is the increasing specialization to improve accuracy, performance, and resource requirements. In this talk, I will discuss the resulting heterogeneity of the entire ML systems stack. This includes the diversity of ML applications and algorithms, language abstractions for different users and lifecycle tasks, different system architectures and execution strategies, means of fault tolerance and resilience, heterogeneous and structured data representations, as well as heterogeneous hardware. Based on seven years of experience working on compilation and runtime techniques for declarative, large-scale ML in Apache SystemML, I will then share major lessons learned and draw conclusions on open challenges and future ML systems.
Zum Programm der Infineon Winter School