Definitionen Was tut die EU High-Level Group of Artificial Intelligence?

Autor / Redakteur: Laimingas / Manfred Klein

Die High-Level Group of Artificial Intelligence (HLG AI) ist eine Gruppe von KI-Experten, die von der EU-Kommission 2018 ins Leben gerufen wurde, um Empfehlungen für eine zukünftige Gesetzgebung zum Thema Künstliche Intelligenz auszuarbeiten.

Firma zum Thema

Was darf KI in der Medizin oder im eGovernemnt? Die EU-Expertengruppe soll dafür Richtlinien entwickeln
Was darf KI in der Medizin oder im eGovernemnt? Die EU-Expertengruppe soll dafür Richtlinien entwickeln
(© aga7ta - Fotolia)

Die Expertengruppe soll mit ihrem Fachwissen vor allem eine umfassende Allianz von unterschiedlichen Interessenträgern bilden und auf der Grundlage der Erklärungen der „Europäischen Gruppe für Ethik in der Wissenschaft und Neuen Technologien“ gültige Leitlinien für eine Ethik der Künstlichen Intelligenz schaffen und ausarbeiten.

Gemeint sind praktische Einsatzmöglichkeiten von KI in zahlreichen Themenfeldern von Wirtschaft und Gesellschaft wie beispielsweise einer verbesserten Gesundheitsversorgung, einer größeren Verkehrssicherheit oder einer nachhaltigeren Landwirtschaft.

Weiterhin soll die Gruppe Antworten auf Fragen geben, wie sich Künstliche Intelligenz etwa auf geltendes Recht und Gesetzgebung oder auf zukünftige Formen der Arbeit auswirken wird. Die HLG AI soll zu einer breit angelegten und offenen Diskussion beitragen, wie KI erfolgreich entwickelt und ethisch vertretbar zum Einsatz kommen kann.

Kritischer Blick auf die Zusammensetzung der Gruppe

Zu Beginn gab es zum Teil heftige Kritik an der Zusammensetzung der Expertengruppe. Thomas Metzinger, ein anerkannter und angesehener Ethik-Professor der Universität Mainz, sah in der Gruppe einen zu stark auf Unternehmensinteressen zugeschnittenen Kompromiss, da ihr lediglich vier Ethik-Experten angehörten, aber knapp die Hälfte der 52 Mitglieder Vertreter von Unternehmen waren. Metzinger bezeichnete das Vorhaben, Leitlinien für eine „vertrauenswürdige KI“ zu entwickeln, als eine „Gute-Nacht-Geschichte“, die von der Industrie erfunden wurde, um die Verbraucher über die Auswirkungen künstlicher Intelligenz zu beruhigen.

Vor allem aber beschwerte sich Metzinger darüber, dass die Gruppe sich nicht bereit zeigte, wirkliche „rote Linien“ zu ziehen. Für ihn und andere Kritiker waren Punkte wie ein Social Scoring auf chinesische Art oder die Entwicklung tödlicher autonomer Waffensysteme absolut unverhandelbar. Diesen Schritt wollte die Gruppe aber zunächst nicht gehen. Metzinger empfahl daraufhin, die Industrie und ihre Interessen bei der Ethik-Debatte außen vor zu lassen.

Mittlerweile hat in der HLG AI aber ein Umdenken stattgefunden, und die Experten sprechen sich sehr wohl für rote Linien bei bestimmten Themen wie den zuvor erwähnten aus. So müsse beispielsweise der Einsatz von Systemen zur automatischen Gesichtserkennung „verhältnismäßig“ sein und sich in einem legalen Rahmen bewegen.

Auch andere Experten und Organisationen wie AI Now oder Algorithm Watch warnen schon länger vor den Risiken automatische KI-Systeme. Durch die riesigen Datenmengen seien sie erwiesenermaßen anfällig für Fehler und führen nicht selten zur Diskriminierung von ethnischen Minderheiten oder zur Benachteiligung von Frauen. In solchen kritischen Bereichen oder auch in Bezug auf autonome Waffensysteme fordern die Mitglieder der High-Level Group of Artificial Intelligence heute eine härtere Gangart.

(ID:47022239)