Machine Learning - Verifizierung und Validierung von Vorhersagemodellen

Event Start: 8 Monate, 4 Wochen her // Event Information


Inzwischen begegnen uns Machine-Learning (oder auch "KI") Modelle an allen Ecken und Enden des täglichen Lebens. Wie gut und brauchbar sind aber die Vorhersagen, die solche Modelle erstellen? Im Workshop schauen wir paar konkrete Anwendungen an, hinterfragen die Modelle kritisch und erarbeiten dabei allgemeinere Werkzeuge und Herangehensweisen, um solchen Modellen (oder denen, die sie trainieren oder ihren Einsatz propagieren) "auf den Zahn" zu fühlen. Vorkenntnisse sind keine nötig - eine gesunde Portion Menschenverstand, Neugier, Diskussions- und Denkfreude reichen völlig aus.

Wir konzentrieren uns auf vorhersagende (aka prädiktive) Modelle. D.h., Modelle, deren Output wir mit Fragen wie "war die Vorhersage richtig oder falsch?" oder "Um wie viel weicht die Vorhersage vom wahren oder Referenzwert ab?" überprüfen und bewerten können.

Ich werde ein paar Beispiele/Anwendungen "zum Aufwärmen" mitbringen, freue aber auf Input aus dem Publikum und möchte eure Beispiele mit euch diskutieren. Bringt also gerne Beispiel-Anwendungen mit, die wir gemeinsam diskutieren können. Das können eigene ML/KI-Modelle sein oder auch Beschreibungen aus den Medien oder der Fachliteratur.

Generative Modelle (also solche, die zB Bilder oder längere Texte erzeugen), sind nicht so gut geeignet, weil die Überprüfungskriterien zu schwammig sind (wenn DALL-E ein Gesicht mit 3 Augen produziert, ist das "künstlerische Freiheit" und das Bild zählt als richtig oder ist das Bild dann falsch?)

Werkzeug: wir benutzen ganz überwiegend Aufmerksamkeit und Verstand, Rechner ist an manchen Stellen vielleicht hilfreich, aber nicht nötig.

Sprache: Deutsch oder Englisch (oder beides) klären wir am Anfang. Diskussionsbeiträge sind in beiden Sprachen willkommen.



Empfehlungen