KI-Systeme bieten ein riesiges Spektrum an Einsatzm?glichkeiten. Doch ihre Verwendung ist mit einer Reihe von ethischen und sicherheitstechnischen Risiken verbunden. Ziel des aktuellen Regulierungsvorschlags der Europ?ischen Kommission ist daher, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Die EU hat dazu KI-Anwendungen nach ihrem Gefahrenpotenzial (der sogenannten Kritikalit?t) klassifiziert.Im Whitepaper ?Kritikalit?t von KI-Systemen in ihren jeweiligen Anwendungskontexten" analysieren Fachleute der Plattform Lernende Systeme diesen Vorschlag der Europ?ische Kommission. Sie konkretisieren die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. ?Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen h?chst kritisch sein. KI für die Detektion von Hate Speech dürfte als vergleichsweise unbedenklich gelten. Wenn die gleiche Anwendung aber von einem totalit?ren Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann f?llt die Bewertung gegenteilig aus", so Jessica Heesen, Medien-ethikerin der Eberhard-Karls-Universit?t Tübingen und Co-Leiterin der Arbeitsgruppe ?IT-Sicherheit, Privacy, Recht und Ethik" der Plattform Lernende Systeme.
展开▼