Gartner-Prognose
07.06.2019, 16:04 Uhr
07.06.2019, 16:04 Uhr
Viele grosse Unternehmen werden künftig auf KI-Forensiker setzen
Um für Vertrauen und Datenschutz beim Einsatz von KI-gestützten Lösungen zu sorgen, werden viele Unternehmen dazu übergehen, ihre Algorithmen von Forensik-Experten überprüfen zu lassen.
Vorfälle wie Datenschutzverletzungen und Datenmissbrauch lassen bei der Nutzerschaft das Vertrauen in Lösungen mit Künstlicher Intelligenz sinken. Um dieser Tendenz entgegenzuwirken, werden laut einer Prognose des Analystenhauses Gartner 75 Prozent aller grossen Unternehmen schon bis 2023 auf den Einsatz von Spezialisten für Forensik, Datenschutz und Kundenvertrauen setzen. Die Experten sollen die entwickelten Algorithmen überwachen, um das Marken- und Reputationsrisiko zu verringern.
Beim Training von KI-gestützten Lösungen besteht seit längerem das Risiko, dass vorurteilbehaftete Strukturen entstehen, die sich auf das Geschlecht, die Rasse oder das Alter von Personen beziehen. Diesen Tendenzen gilt es, gezielt entgegenzuwirken. Darüber hinaus ist die Komplexität beim Entscheidungsprozess von Deep-Learning-Lösungen oft nur schwer nachzuvollziehen – hier muss Klarheit bei der Interpretation bestehen.
«Neue Werkzeuge und Fähigkeiten sind erforderlich, um Unternehmen dabei zu unterstützen, diese und andere potenzielle Störungen zu erkennen, mehr Vertrauen in die Verwendung von KI-Modellen aufzubauen und das Marken- und Reputationsrisiko zu reduzieren», sagt Jim Hare, Research Vice President bei Gartner.
KI-Forensiker schon heute im Einsatz
In der Praxis kommen schon heute in der Finanz- oder Versicherungsbranche verschiedene Kombinationen von KI-Governance- und Risikomanagementinstrumenten zum Einsatz, um Reputations- und Sicherheitsrisiken zu ermitteln. Und auch Unternehmen wie Facebook, Google, Bank of America, MassMutual und die NASA stellen KI-Forensiker ein, die sich in erster Linie darauf konzentrieren, unerwünschte Verzerrungen in KI-Modellen aufzudecken, bevor sie eingesetzt werden. Diese Experten validieren Modelle während der Entwicklung und überwachen sie weiterhin, sobald die Algorithmen in die Produktion gehen. Denn unter realen Bedingungen kommt es oftmals zu unerwarteten Verzerrungen.
Der Bedarf an Kontrolleuren für den KI-Bereich dürfte sich auch im Dienstleistungssektor bemerkbar machen. Beratungshäuser könnten hier etwa Services einführen, um die Machine-Learning-Modelle von Unternehmen zu auditieren und zu zertifizieren. Dadurch lässt sich etwa die Funktionalität der Algorithmen bestimmen und die Einhaltung bestimmter Standards sicherstellen. Diese Aufgabe könnten allerdings auch Open-Source-Lösungen oder kommerzielle Tools erfüllen, die speziell zur Überprüfung von KI-Modellen erstellt wurden. So gibt es etwa freie Programme wie Local Interpretable Model-Agnostic Explanations (LIME), die nach unbeabsichtigter Diskriminierung suchen können.
Wenn KI Amok läuft
Dass ein realer Bedarf an Kontrolle für die «intelligenten» Lösungen besteht, bewies Microsofts selbstlernender Chatbot Tay im Jahr 2016 eindrucksvoll. Konfrontiert mit den zahllosen Nachrichten auf Twitter verwandelte sich der Bot innerhalb kürzester Zeit zu einem Holocaust-leugnenden Rassisten. Microsoft nahm Tay deshalb nach nur 16 Stunden wieder vom Netz. Auch die überarbeitete Version von Tay war dem Internet nicht gewachsen und wurde nach einem abermaligen Amoklauf wieder deaktiviert.