Künstliche Intelligenz
Die Potentiale von KI-Systemen werden verantwortungsvoll und transparent unter Berücksichtigung rechtlicher und gesellschaftlicher Rahmenbedingungen umgesetzt. Dabei werden die KI-Systeme so gestaltet, dass die Handlungsoptionen von Menschen unter Wahrung ihrer Grundrechte, Autonomie und Selbstbestimmung wertebasiert erweitert werden.
Beschreibung
Das Ziel einer jeden technologischen Entwicklung sollte sein, nicht nur Prozesse zu optimieren und ökonomische Effizienz zu erzielen, sondern auch die berufliche und private Lebenssituation der Menschen zu erleichtern, ihre Handlungsmöglichkeiten zu erweitern und ihre Autonomie zu wahren. Das gilt auch und insbesondere für Künstliche Intelligenz (KI). KI ist eine digitale Technologie, deren Einsatz und Bedeutung stetig zunimmt. Dabei nehmen nicht nur Algorithmen, sondern auch Daten und Übertragungswege eine zentrale Stellung ein. Die durch den Einsatz von KI-Systemen bevorstehenden Veränderungen haben Auswirkungen auf den Einzelnen sowie auf die Gesellschaft – das Selbstbild des Menschen (Vormachtstellung gegenüber Maschinen, Autonomie), das soziale Gefüge (soziales Handeln und soziales Rollenverständnis), den Wert und die Gestaltung der Arbeit (Aufbau und Prozesse) sowie die politische Willens- und Meinungsbildung.KI-basierte Entscheidungssysteme sollen die menschlichen Fähigkeiten stützen und erweitern.
Für den spezifischen Building Bloxx Künstliche Intelligenz nimmt die Politik eine zentrale Rolle ein, da sie die rechtlichen Rahmenbedingungen vorgibt. Unternehmen – vor allem Newcomer und Startups – und deren Mitarbeitende sind ausschlaggebend für die Entwicklung neuer Technologien, die nach Ethics by Design konzipiert sind. Nutzer/innen stellen durch ihre Digitale Mündigkeit einen Anspruch an den Verlauf des Prozesses, während Investoren/innen an nachhaltigen Anlagemodellen durch KI interessiert sind.
Betrachtet man die Anforderungen an vertrauenswürdige KI-Systeme, existiert derzeit noch kein einheitlicher KI-Standard oder eine KI-Norm. Diese befinden sich in der Entwicklungsphase. Analysiert man aber die derzeit über 220 verschiedenen Dokumente für eine vertrauensvolle Nutzung von KI, kristallisieren sich die folgenden 5 Meta-Prinzipien für eine vertrauenswürdige und nachhaltige Entwicklung von KI-Systemen (ethics by design) heraus:
- 1. Verantwortung: Klare Definition, wer für das KI-(Teil-)-System zuständig ist. Einhaltung von Recht und Gesetz, (z.B. Datenschutz, uva.)
- 2. Erklärbarkeit: Transparenz über den Zweck und die prinzipielle Funktionsweise der Algorithmen, die Nutzung von personenbezogenen Daten, Kenntlichmachung, wenn man mit einer KI interagiert.
- 3. Sicherheit und Schutz: IT-Robustheit (IT- Information- & Data Security) von KI-Systemen muss gewährleistet sein, eine Risikobetrachtung sollte je KI-System erfolgen
- 4. Selbstbestimmung: Schutz vor Manipulationen und ungewollter Einflussnahme auf das Verhalten von Nutzern durch KI-Systeme
- 5. Chancengleichheit/Fairness: Minimierung von Diskrimierung durch sorgfältige Auswahl, Nutzung und Überprüfung von Trainingsdaten und Algorithmen. Grundsatz: Nicht alles, was mit KI-Systemen möglich ist, sollte auch unreflektiert angewandt werden
Handlungsempfehlungen /Vorgehensempfehlung:
- Management-Commitment für den Einsatz von KI-Systemen
- Definition KI Governance, ggf. Red lines (Wirkungsfelder)
- Einbezug möglichst diverser Bereiche/ Stakeholdergruppen, um kritische Aspekte für das Unternehmen früh zu identifizieren.
- Mehrwert prüfen: Entwicklung von KI-Systemen nicht als Selbstzweck, sondern als Lösung von konkreten Aufgabenstellungen sehen. Dabei ist Transparenz wichtig: Was kann das KI-System überhaupt lösen?
- Überzogene Erwartungen wirken kontraproduktiv, daher Erwartungsmanagement ggü. dem Management betreiben
- Frühzeitiges Einbeziehen von Mitarbeitenden der verschiedenen Disziplinen (z.B. Datenschutz, IT Security, Data Security, etc. ) und ggf. Sozialpartnern/innen berücksichtigen
- Risikosicht: Definition von Risikoklassen, um insbesondere die risikoreichen Produkte zu thematisieren.
- Etablierung von Überprüfungssystemen, die regelmäßig die KI-Systeme prüfen.
- Befähigung von Mitarbeitern und Verbrauchern, um Auswirkungen von KI-Systemen souverän einordnen zu können.
- Laufende KI-Systeme regelmäßigen Prüfzyklen unterziehen (KVP // PDCA)
Einen einheitliche Standard für das Design und/oder die Nutzung von ethischen/vertrauenwürdigen KI-Anwendungen existiert derzeit noch nicht. Für einen holistischen Einstieg ins Thema wird auf die folgenden Arbeiten verwiesen (Stand 27. April 2021):
- CDR-Selbstverpflichtung des Bundesministeriums für Justiz und Verbraucherschutz (mehr Informationen unter diesem Link)
- Bericht der Datenethik-Kommission (mehr Informationen unter diesem Link)
- Bericht der Enquete-Kommission KI (mehr Informationen unter diesem Link)
- KI-Strategie der Bundesrepublik Deutschland (mehr Informationen unter diesem Link)
- Datenstrategie der Bundesregierung (mehr Informationen unter diesem Link)
- DIN/DKE: Deutsche Normierungsroadmap Künstliche Intelligenz (mehr Informationen unter diesem Link)
- Bitkom: Blick in die Blackbox (mehr Informationen unter diesem Link)
- Fraunhofer IAIS: Vertrauenswürdiger Einsatz von KI (mehr Informationen unter diesem Link)
- Bertelsmann Stiftung: „From Principles to practice: How can we make AI ethics measurable?“ (mehr Informationen unter diesem Link)
- EU: Arbeiten der AI HLEG sowie die des Experten/innen-Kreis der Europäischen Kommission (mehr Informationen unter diesem Link)
- Vorschlag des EP und des Rates zur Festlegung harmonisierter Vorschriften für KI (Gesetz über Künstliche Intelligenz) vom 21. April 2021 („EU AI Act“) (mehr Informationen unter diesem Link)
- Organisationen auf internationaler Ebene:
-IEEE: Trustworthiness of Artificial Intelligence (mehr Informationen unter diesem Link)
-DKE, DIN, VDE: Ethik und KI: Was können technische Normen und Standards leisten? (mehr Informationen unter diesem Link)