ai-compare.org
Ein unabhängiges Vergleichsportal /// eine Zertifizierungsstelle für KI-Modelle
compare.ai sorgt für Übersicht im GenAI-Dschungel: Als Non-Profit organisiert, sammeln wir alle möglichen Analysen, Evaluationen und kritischen Behind-the-scenes-Recherchen. Und dann bereiten wir das alles so auf, dass Nutzer*innen ohne spezielle technische Expertise einen Zugang zur Vielfalt von KI-Modellen bekommen.
Dabei spielt nicht allein die Performance der Modelle eine Rolle, sondern auch eine Reihe von gesellschaftspolitisch/ökonomisch relevanten Parametern:
• Transparenz und Qualität der Daten
• Umgang mit Bias
• Umgang mit Copyright-Problemen
• ökologische Nachhaltigkeit
• soziale Nachhaltigkeit (Sub-contractors, Datenkuration in Billiglohnländern etc.)
• harmful data filtered out?
• open source oder closed off
• sind die Entwickler profit/nonprofit-orientiert
• personality type
• und natürlich wird auch die Qualität der Outputs einbezogen
Derzeit ist ai-compare noch in der Beta-Projektphase: es geht weniger um Resultate, es geht um die Diskussion. Welche Kritierien sind wie stark zu gewichten, kann man das alles quantitativ erfassen, wäre die user-friendly Lösung am ehesten ein simples Ranking oder sollte die Subjektivität der Gewichtung/der Bemessung im Zentrum stehen?