Künstliche Intelligenz (KI)


Vision

Die Potentiale von KI-Systemen werden verantwortungsvoll und transparent unter Berücksichtigung rechtlicher und gesellschaftlicher Rahmenbedingungen umgesetzt. Dabei werden die KI-Systeme so gestaltet, dass die Handlungsoptionen von Menschen unter Wahrung ihrer Grundrechte, Autonomie und Selbstbestimmung wertebasiert erweitert werden.

Beschreibung

Das Ziel einer jeden technologischen Entwicklung sollte sein, nicht nur Prozesse zu optimieren und ökonomische Effizienz zu erzielen, sondern auch die berufliche und private Lebenssituation der Menschen zu erleichtern, ihre Handlungsmöglichkeiten zu erweitern und ihre Autonomie zu wahren. Das gilt auch und insbesondere für Künstliche Intelligenz (KI). KI ist eine digitale Technologie, deren Einsatz und Bedeutung stetig zunimmt. Dabei nehmen nicht nur Algorithmen, sondern auch Daten und Übertragungswege eine zentrale Stellung ein.

Die durch den Einsatz von KI-Systemen bevorstehenden Veränderungen haben Auswirkungen auf den Einzelnen sowie auf die Gesellschaft – das Selbstbild des Menschen (Vormachtstellung gegenüber Maschinen, Autonomie), das soziale Gefüge (soziales Handeln und soziales Rollenverständnis), den Wert und die Gestaltung der Arbeit (Aufbau und Prozesse) sowie die politische Willens- und Meinungsbildung.

KI-basierte Entscheidungssysteme sollen die menschlichen Fähigkeiten stützen und erweitern.

Stakeholder

Für den spezifischen Building Bloxx Künstliche Intelligenz nimmt die Politik eine zentrale Rolle ein, da sie die rechtlichen Rahmenbedingungen vorgibt. Unternehmen – vor allem Newcomer und Startups – und deren Mitarbeitende sind ausschlaggebend für die Entwicklung neuer Technologien, die nach Ethics by Design konzipiert sind. Nutzer/innen stellen durch ihre Digitale Mündigkeit einen Anspruch an den Verlauf des Prozesses, während Investoren/innen an nachhaltigen Anlagemodellen durch KI interessiert sind.

Kriterien & Guidelines

Betrachtet man die Anforderungen an vertrauenswürdige KI-Systeme, existiert derzeit noch kein einheitlicher KI-Standard oder eine KI-Norm. Diese befinden sich in der Entwicklungsphase. Analysiert man aber die derzeit über 220 verschiedenen Dokumente für eine vertrauensvolle Nutzung von KI, kristallisieren sich die folgenden 5 Meta-Prinzipien für eine vertrauenswürdige und nachhaltige Entwicklung von KI-Systemen (ethics by design) heraus:

  • 1. Verantwortung: Klare Definition, wer für das KI-(Teil-)-System zuständig ist. Einhaltung von Recht und Gesetz, (z.B. Datenschutz, uva.)
  • 2. Erklärbarkeit: Transparenz über den Zweck und die prinzipielle Funktionsweise der Algorithmen, die Nutzung von personenbezogenen Daten, Kenntlichmachung, wenn man mit einer KI interagiert.
  • 3. Sicherheit und Schutz: IT-Robustheit (IT- Information- & Data Security) von KI-Systemen muss gewährleistet sein, eine Risikobetrachtung sollte je KI-System erfolgen
  • 4. Selbstbestimmung: Schutz vor Manipulationen und ungewollter Einflussnahme auf das Verhalten von Nutzern durch KI-Systeme
  • 5. Chancengleichheit/Fairness: Minimierung von Diskrimierung durch sorgfältige Auswahl, Nutzung und Überprüfung von Trainingsdaten und Algorithmen. Grundsatz: Nicht alles, was mit KI-Systemen möglich ist, sollte auch unreflektiert angewandt werden.

Praxisbeispiele

Best practice Beispiele für verschiedene Reifegrade und Schwerpunkte:

  • Deutsche Telekom: Ethische KI-Leitlinien, umfangreiche Informationen, Implementierung (mehr Informationen unter diesem Link)
  • Telefónica: holistisch, sehr bildlich (mehr Informationen unter diesem Link)
  • BMW Ethics: technischer Focus (mehr Informationen unter diesem Link)
  • SAP Ethical Guidelines: externer Expertenrat/divers (mehr Informationen unter diesem Link)
  • CeWe: Transparenz zur Algorithmennutzung und di Struktur des Expertenbeirats an sich (mehr Informationen unter diesem Link)
  • Otto Group: umfassender Ansatz, “Hands on”, breite Community (mehr Informationen unter diesem Link)
  • Adobe Systems: Übersicht KI-Einsatzbereiche, Ethics Committee, AI Ethics Review Board (mehr Informationen unter diesem Link)

Handlungsempfehlungen

Handlungsempfehlungen /Vorgehensempfehlung:

  • Management-Commitment für den Einsatz von KI-Systemen
  • Definition KI Governance, ggf. Red lines (Wirkungsfelder)
  • Einbezug möglichst diverser Bereiche/ Stakeholdergruppen, um kritische Aspekte für das Unternehmen früh zu identifizieren.
  • Mehrwert prüfen: Entwicklung von KI-Systemen nicht als Selbstzweck, sondern als Lösung von konkreten Aufgabenstellungen sehen. Dabei ist Transparenz wichtig: Was kann das KI-System überhaupt lösen?
  • Überzogene Erwartungen wirken kontraproduktiv, daher Erwartungsmanagement ggü. dem Management betreiben
  • Frühzeitiges Einbeziehen von Mitarbeitenden der verschiedenen Disziplinen (z.B. Datenschutz, IT Security, Data Security, etc. ) und ggf. Sozialpartnern/innen berücksichtigen
  • Risikosicht: Definition von Risikoklassen, um insbesondere die risikoreichen Produkte zu thematisieren.
  • Etablierung von Überprüfungssystemen, die regelmäßig die KI-Systeme prüfen.
  • Befähigung von Mitarbeitern und Verbrauchern, um Auswirkungen von KI-Systemen souverän einordnen zu können.
  • Laufende KI-Systeme regelmäßigen Prüfzyklen unterziehen (KVP // PDCA)

Prozesse & Standards

Einen einheitliche Standard für das Design und/oder die Nutzung von ethischen/vertrauenwürdigen KI-Anwendungen existiert derzeit noch nicht. Für einen holistischen Einstieg ins Thema wird auf die folgenden Arbeiten verwiesen (Stand 27. April 2021):

  • CDR-Selbstverpflichtung des Bundesministeriums für Justiz und Verbraucherschutz (mehr Informationen unter diesem Link)
  • Bericht der Datenethik-Kommission (mehr Informationen unter diesem Link)
  • Bericht der Enquete-Kommission KI (mehr Informationen unter diesem Link)
  • KI-Strategie der Bundesrepublik Deutschland (mehr Informationen unter diesem Link)
  • Datenstrategie der Bundesregierung (mehr Informationen unter diesem Link)
  • DIN/DKE: Deutsche Normierungsroadmap Künstliche Intelligenz (mehr Informationen unter diesem Link)
  • Bitkom: Blick in die Blackbox (mehr Informationen unter diesem Link)
  • Fraunhofer IAIS: Vertrauenswürdiger Einsatz von KI (mehr Informationen unter diesem Link)
  • Bertelsmann Stiftung: “From Principles to practice: How can we make AI ethics measurable?” (mehr Informationen unter diesem Link)
  • EU: Arbeiten der AI HLEG sowie die des Experten/innen-Kreis der Europäischen Kommission (mehr Informationen unter diesem Link)
  • Vorschlag des EP und des Rates zur Festlegung harmonisierter Vorschriften für KI (Gesetz über Künstliche Intelligenz) vom 21. April 2021 (“EU AI Act”) (mehr Informationen unter diesem Link)
  • Organisationen auf internationaler Ebene:
    -IEEE: Trustworthiness of Artificial Intelligence (mehr Informationen unter diesem Link)
    -DKE, DIN, VDE: Ethik und KI: Was können technische Normen und Standards leisten? (mehr Informationen unter diesem Link)

Ressourcen & Tools

Im Folgenden nennen wir praxistaugliche Open Source Anwendungen zur nachhaltigen und vertrauensvollen Verwendung von KI:

Um das Thema “Vertrauensvolle KI” im Unternehmen zu verankern, sollte in erster Hinsicht die Schulung, Aus- und Weiterbildung des Personals im Focus stehen, um einen ganzheitlichen Ansatz zu gewährleisten:

  • KI-Campus (Pilotprojekt des BMBF, Stifterverband: Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das Hasso-Plattner-Institut (HPI), NEOCOSMO und das mmb Institut) (mehr Informationen unter diesem Link)
  • Elements of AI (Trainingsangebot der Universität von Helsinki, in deutscher Sprache mit Unterstützung des IHK unter der Schirmherrschaft des BMWi (mehr Informationen unter diesem Link)

Um die Wirkweisen von KI nachvollziehbar zu erklären, seien die folgenden Anwendungen zur Unterstützung einer vertrauensvollen KI-Implementierung genannt:

  • Explainable AI, z.B. DALEX (mehr Informationen unter diesem Link) oder Anaconda (mehr Informationen unter diesem Link)
  • Explainable AI Toolset: DrWhy (mehr Informationenunter diesem Link)
  • Google Explainable AI (mehr Informationen unter diesem Link)