Unsere Werkzeuge basieren auf etablierten Open-Source-Toolkits. Wir setzen modernste Software ein, die von führenden Forschungseinrichtungen entwickelt wurde, und optimieren diese, um Ihnen eine einfache Bedienung und perfektes Nutzererlebnis zu ermöglichen.
Wir analysieren sowohl Trainingsdaten als auch Vorhersagen von KI-Systemen im Hinblick auf mögliche Diskriminierung, unfaire Ungleichgewichte und Verzerrungen. Sie erhalten einen umfassenden Bericht und leicht verständliche Erklärungen zu den Ergebnissen.
Machine-Learning-Modelle können für sogenannte „Adversarial Attacks“ anfällig sein, bei denen sehr kleine (oft nicht wahrnehmbare) Störungen der Eingaben das Modell zu einer falschen Vorhersage veranlassen. Wir verwenden die von IBM entwickelte „Adversarial Robustness Toolbox“, um solche Angriffe zu simulieren und die Robustheit des KI-Systems zu testen.
Bislang gibt es keine etablierten Tools, die prüfen, ob Trainingsdaten personenbezogene Daten enthalten, die unter die Datenschutz-Grundverordnung (DSGVO) fallen. Unsere selbstentwickelten Tools scannen und markieren Daten, die möglicherweise personenbezogen sind, automatisiert.
Cyberkriminalität ist eine große Herausforderung bei der Bewertung von KI-Systemen. Herkömmliche statische Prüfungen reichen hier nicht aus. Wir erforschen grundlegend neue sicherheitstechnische Konzepte, um einen kontinuierlichen Nachweis der Robustheit von KI-Systemen gegen Cyberattacken zu erhalten.
Berücksichtigt Ihre KI-Anwendung ausreichend gesellschaftliche Werte und erfüllt alle rechtlichen Anforderungen?
Das Business Analytics und Data Science Center der Universität Graz erforscht wie datenbasierte Technologien in der Wirtschaft eingesetzt werden können und welche gesellschaftlichen Auswirkungen diese haben. Das BANDAS Center bringt seine Expertise im Bereich Software Validierung, Auditing und Dokumentation von KI ein, wobei ethische und rechtliche Aspekte von KI besonders berücksichtig werden. Das Institute of Interactive Systems and Data Science der TU Graz deckt den Bereich “Ethics by Design” ab.