Ethik und KI

Ethische Fragen, die bei der Gestaltung von KI-basierten intelligenten Systemen auftauchen: Während IT Lösungen, die KI-Komponenten beinhalten, langsam in immer mehr Branchen eingesetzt werden, wird die Notwendigkeit an einer gesellschaftlichen und moralischen Diskussion ihrer Gestaltung und ihrer Effekte immer größer. Welche Rolle der Ethik innerhalb des Gestaltungszyklus der KI-basierten Systeme zukommt und warum die Nicht-Beachtung gesellschaftliche, wirtschaftliche und technische Konsequenzen haben kann, soll hier beschrieben werden. Ethik und IT müssen überdacht und zusammengefügt werden. Informationstechnische Anwendungen, die auf den Methoden der Künstlichen Intelligenz basieren, sind heute kaum wegzudenken. Erleichterung bei Integration mit unserer sozialen Umwelt und bei der Recherche nach Informationen (z.B. Suchmaschinen, Content-Streaming-Anbieter) geht immer öfter mit gesellschaftlichen Bedenken bezüglich dieser Technologien einher. Die Komplexität der Systeme, die Undurchsichtigkeit der Ergebniswege und resultierender Aktionen führen dazu, dass die Kluft zwischen den Technologien und der Gesellschaft immer größer wird. Dies sinkt das Vertrauen in die Qualität, aber auch in den Nutzen der KI-basierten Lösungen.
Die Frage, wie die aufkommende Informationstechnologie die Gesellschaft und einzelne Personen beeinflusst, wurde bereits 1969 von Norbert Wiener in seinem Buch „The Human Use of Human Beings – Cybernetics and Society“ gestellt. Value sensitive design (VSD) wurde erstmals im Jahr 2002 als Ansatz der Anwendungsentwicklung konzipiert, der ethische Aspekte sowie Werte in die Entwicklung von Informationssystemen einbezogen hat. Bisher hat sich dieser Ansatz jedoch in der Fach-Community nur wenig verbreitet. In der Gesellschaft werden zunehmend die Integration von ethischen Aspekten in die IT-Artefakte diskutiert. Es fehlt aktuell bei der Erstellung solcher intelligenten System des „maschinellen Lernens“ die wissenschaftlichen Aspekte in Bezug auf die Systemgestaltung solcher Anwendungen.

Ethische Diskussionen zu KI-Technologien

Die Diskussion der ethischen Aspekte der KI-Technologien ist vielschichtig. Zum jetzigen Zeitpunkt gibt es keine eindeutige Definition der Technologien, welche im Großen unter „Intelligenz“ zusammengefasst sind. Umgangssprachlich wird Intelligenz auch die Möglichkeit zur Anpassung an neue Umstände genannt (englisch: „Adaption to change“). Es werden jedoch die Begriffe der schwachen und der starken Künstlichen Intelligenz verwendet, um algorithmische Systeme bzw. Anwendungen des maschinellen Lernens zu beschreiben. Zum anderen begegnet KI gerade das, was jede aufkommende wissenschaftliche Disziplin erlebt hat: die Herausforderung, ihre ethischen Grenzen zu definieren. Forschungs-, Kosten- und Datenschutz Fragen wecken Bedenken, mit denen Arbeitgeber, Produktanbieter, Entwickler und politische Entscheidungsträger auf Jahre hinaus konfrontiert werden. Zwar wurden die Verfahren des maschinellen Lernens, auch das was heute häufig als „schwache KI“ bezeichnet wird, bereits Anfang des 20. Jahrhunderts aufgebracht. Die Disziplin und damit ihre gesellschaftlichen Auswirkungen erst durch eine rasante Verbreitung der angewandten Technologien in den letzten Jahren auch eine verstärkte Aufmerksamkeit der Öffentlichkeit erfahren. In einer Zeit, in der sich die Verfahren der Automatisierung und Datenverarbeitung mit zunehmender Geschwindigkeit weiter entwickeln, steigt auch die Anzahl ihrer gesellschaftsrelevanten Anwendungen.
Der Fortschritt dieser Produkte bringt jedoch ein moralisch, politisches Dilemmata in den Blickpunkt der Gesellschaft. Diese Konflikte werden sich vervielfachen, wenn Gruppen mit sehr unterschiedlichen Standpunkten und Ressourcen wie große Industriekonzerne und Nichtregierungsorganisationen um die Ausrichtung der „richtigen“ Anwendung der KI kämpfen. Die Ethik ist ein Teilgebiet der Philosophie und wird häufig auch als praktische Philosophie bezeichnet.

Sie beschäftigt sich mit der Begründbarkeit und Reflektion der moralischen Grundsätze für das Verhalten oder Handeln einer Person oder Gruppe von Personen.

Dr. Olga Levina

Mit anderen Worten werden Regeln oder Entscheidungswege ausgehandelt, die dabei helfen sollen zu bestimmen, was als gut oder richtig in der jeweiligen Gesellschaft betrachtet wird.

Die Ethik von KI-gestützten Systemen gehören in den Teilbereich der angewandten Ethik. Sie geht den Fragen, die die Entwicklung, Einführung und Nutzung von KI-basierten Systemen, für die Individuen in der Gesellschaft sowie für die moralischen Normen einer Gesellschaft aufgeworfen werden. Im Mittelpunkt steht auch die Frage, inwiefern KI-basierte Systeme das Leben von Einzelpersonen der jeweiligen Gesellschaft verbessern können. Staaten, Institutionen und Industrie sind dabei Richtlinien für die Gestaltung von ethisch verträglichen KI-Systemen zu entwickeln. Das Bedürfnis nach einer Diskussion der Werte, die bei der Entwicklung von KI-basierten Systemen wesentlich sind, besteht jedoch nicht nur auf der Seite der Anwendenden. So sahen sich im Jahr 2019 sahen sich im Jahr 2019 ca. 28 Prozent der Menschen, die im IT-Bereich arbeiten, konfrontiert bereits mit Entscheidungen in ihrem Arbeitsalltag, die negative Konsequenzen für die Anwendenden oder die Gesellschaft haben können. Bei den Menschen, die KI-basierte Systeme entwickeln, waren es sogar 59 Prozent. Diese Zahlen sind ein Indikator dafür, dass eine ethische Diskussion gerade im technischen Kontext notwendig und gewünscht ist. KI-basierte Anwendungen basierend auf maschinellen Lernen haben das Potential Entscheidungen effizient zu fällen, jedoch können diese auch großen Schaden anrichten. Dabei liegt im Kontext von KI-basierten Systemen ein Schaden vor, wenn eine Vorhersage oder ein Endergebnis die Fähigkeit eines Individuums, seine rechtmäßige Persönlichkeit zu etablieren, negativ beeinflusst wird oder das Ergebnis dazu führt, dass der Zugriff auf Ressourcen, beeinflusst oder beeinträchtigt wird. Dabei wird auch von sogenannten Repräsentationsschäden bzw. Allokationsschäden gesprochen. Mehrere Beispiele solcher Fälle wurden bereits in den Medien diskutiert und es kommen ständig neue Fälle hinzu.

Gesellschaftsverträgliche KI-Systeme

Die KI-basierten Systeme müssen davon ausgehen können, dass die ermittelten Ergebnisse und Vorschläge wohlwollend, zielführend und zweckentsprechend konzipiert wurden. Ein vertrauenswürdiges KI-basiertes System nutzt Algorithmen, die sicher zuverlässig und robust sind, sodass Fehler oder Inkonsistenzen in allen Lebens- und Entwicklungsphasen dieser Systeme vermieden werden. Bei der verschiedenen Nutzung eines Algorithmus kann ein Ausschlusskriterium auch der Prozentsatz an „false positives“ sein. Durch den Fortschritt der Digitalisierung in der Industrie und auch des individuellen Kommunikations- und Konsumverhaltens fällt eine große Datenmenge an, die Grundlage neuer Geschäftsmodelle sein kann oder es bereits ist. Solche Produkte und Anwendungen haben jedoch mit unter Probleme beim Datenschutzes und der Datensicherheit. Dass die Gesellschaft diese jedoch nicht ohne Weiteres tragen möchte, zeigt auch die Anhörungen der Geschäftsführung großer Technologieunternehmen vor politischen Gremien, deren Geschäftsmodelle auf Datenverarbeitung basieren. Gesellschaftsverträgliche KI-Systeme müssen die gesamte Bandbreite der humanen Fähigkeiten und Anforderungen berücksichtigen. Dennoch sind Daten der Grundbaustein für das Trainieren und Ausführen von KI-basierten Systemen. Falls bei der Anwendung die generierten Daten verwendet werden, sollen die Anwendenden die volle Kontrolle über ihre eigenen Daten haben und es soll gewährleistet werden, dass die betreffenden Daten nicht zum Nachteil oder zur Diskriminierung verwendet werden. In diesem Kontext gehört auch die Forderung nach Fairness und Vielfalt bei der Gestaltung der Systeme sowie ihrer Datenbasis. KI-Systeme müssen – neben der Nutzung des gesamten Spektrums menschlicher Fähigkeiten – einen Barriere losen Zugriff auf Ressourcen gewähren und die Möglichkeiten der Rückverfolgbarkeit von Ergebnissen und Entscheidungen erlauben. Dieses Prinzip der Transparenz bildet eine der wichtigsten Anforderungen an KI-basierte Systeme. Digitale und algorithmische Systeme einen enormem Energiebedarf haben, muss bei der Entwicklung solcher Systeme der wichtige Standpunkt der Nachhaltigkeit und ökologische Aspekte berücksichtigen. Um das Vertrauen in die KI-basierten Systeme zu stärken bzw. um ihre Ergebnisse in die vorhandenen Abläufe zu integrieren, müssen Mechanismen geschaffen werden, die es erlauben, die Verantwortung und Rechenschaftspflicht für das System und die Ergebnisse zu gewährleisten. Beim Einsatz von KI-basierten Systemen wird der Einsatz von KI-basierten Systemen unterstützt. In der Öffentlichkeit werden Fragen diskutiert, die sich häufig mit KI-basierten Systemen und der (ethischen) Qualität ihrer Entscheidungen beschäftigen, mit den ethischen und den ingenieurtechnischen Anforderungen zusammenzubringen. Erkennen, Verarbeiten, Agieren Ein KI-basiertes System arbeitet in den Phasen Erkennen, Verarbeiten und Agieren.

Ethischen Anforderungen der Systemgestaltung

Wir besprechen die ethischen Anforderungen und Konsequenzen bei der Gestaltung moderner KI-Anwendungssysteme. In der ersten Phase, dem Erkennen stehen vor allem Daten, ihre Qualität und Passung für das anvisierte Problem im Vordergrund. Somit nehmen diese Aspekte bei der Entwicklung eine weitaus wichtiger Rolle als bei der Entwicklung von nicht KI-basierten IT-Systemen ein. Neben den Herausforderungen bei der Qualität und Sammlung von Daten spielen gerade in dieser ersten Phase die rechtlichen Fragen des Datenschutzes eine wesentliche Rolle. Es sollte sichergestellt sein, dass die Daten zweckgebunden und datenschutzkonform erhoben wurden. Verliert man im Gestaltungsprozesses die datenschutzrechtlichen Anforderungen außer Augen, kann das hinterher zu einem großen Aufwand bei der Neugestaltung des System führen. Auf Grund dieser Auswirkungen werden hier auch die Fragen nach der Verantwortung bei und der Auflösung von potenziellen Konflikten aufgeworfen. Wichtig wird somit der Aspekte der Transparenz, das Verständnis und die Machbarkeit der Erklärung der maschinellen Modelle. Die Daten dienen dazu, das algorithmische System für die Lösung eines bestimmten Problems zu trainieren. Im Bereich der regelbasierten Systeme erfolgt die automatisierte Aufgabenlösung durch das explizite Auskodieren von Regeln und Entscheidungspfaden im Programmcode. Ein anderer Weg schlägt das maschinelle Lernen ein. Hier soll das System anhand von zahlreichen Beispielen und unterstützt durch Korrekturaktionen seitens der Entwickelnden die Problemlösung „erlernen“. Aus der Sicht der gesellschaftlichen Relevanz und ethischer Fragestellungen kommen hier auch Aspekte unter anderem der verzerrten (biased) oder unvollständiger Datensätze sowie unvollständiger oder unpassender Modelle zum Tragen.
Die Quelle der Daten und ihre Kategorisierung werfen eigene Fragestellungen über Korrektheit, Angemessenheit sowie semantische Robustheit in den jeweiligen Verarbeitungskontexten auf.
In einer plakativen Anwendung haben nun zwei Forscher potentielle Auswirkungen von nicht sorgfältig bzw. einseitig strukturierte Daten, in diesem Fall Bilddaten, aufgezeigt. Diese Aspekte der Transparenz, Fairness und Robustheit werden beleuchtet. Eine ähnliche Art und Weise wird beim Verarbeiten der Daten noch einmal aufgegriffen. Hier soll sowohl ein passendes Modell als auch ein Implementierungsansatz gefunden werden, der sich zur Beantwortung der vorliegenden Fragestellung unter Berücksichtigung der vorliegenden Daten, Funktionalitätsanforderungen und ethischen Forderungen eignen kann. Der Algorithmus muss also eine geringe Fehlerquote haben und die Funktionsweise des Problemlösungsprozess muss nachvollziehbar gestaltet werden. Wird die Transparenzanforderung nicht erfüllt, senkt dieser Aspekt das Vertrauen in die vorliegende Lösung und damit die Anwendungsbereitschaft. Welche Methoden sich am besten dafür eignen und bei der Umsetzung effizient einsetzbar sind, muss anwendungsspezifisch bestimmt werden. Die Komponenten der Datenverarbeitung implizieren die Integration des Algorithmus in das IT-System und somit auch das Testen des Systems. Das KI-basierte System wird aktuell von den Entwickelnden als ein ganzheitlicher IT-Artefakt betrachtet und somit primär auf seine Funktionalität und Präzision des Algorithmus in Bezug auf ein bestimmtes Problem getestet. Die Auswirkungen, die die Anwendung des Systems auf den Anwendenden haben können oder die Auswirkungen der Anwendung von algorithmischen Systemen auf die Gesellschaft, werden bisher als außerhalb des Fokus der Softwareentwicklung stehen. Jedoch müssen diese Aspekte unmittelbar eine Rolle bei der Entscheidung spielen, ob das System bereit ist „live“ zu gehen oder nicht.
Die Komplexität der Systeme führt zu mangelnder Transparenz bei der Entscheidungsfindung und –Erklärbarkeit. Dadurch wird das Nachvollziehen oder Nachjustieren der Entscheidungskriterien nicht unmittelbar möglich. Durch diese Verzahnung von Inputdaten, dem verarbeitenden Modell und den nur zum Teil vorhersehbaren Auswirkungen stehen nun sowohl der Entwicklungsprozess dieser Systeme als auch die Entwickelnden im Fokus der Gesellschaft.

Mustererkennung in modernen KI-Systemen

Ein weiterer ethikrelevanter Effekt der Einbindung von KI-basierten Systemen in die bestehenden Geschäftsprozesse ist die Mustererkennung auf einer großen Datenmenge, die die Grundlage für die generierten Entscheidungen bildet. KI Anwendungen, die sorgfältig entwickelt wurden, benutzen komplexe Logik Konstrukte aus Geschäfts- und gesellschaftlichen Regeln für die Entscheidungsfindung und liefern somit vorhersehbare Ergebnisse für festgelegte Dateneingaben. Diese Logik wird meistens in den Anwendungsfall- oder Sequenzdiagrammen erfasst. Geschäftslogik und Anwendungsszenarien werden so übernommen, wie sie im Unternehmen selbst gelebt werden. In der Folge werden die aktuellen Geschäftspraktiken, die die Ethik des Unternehmens bzw. des Umsetzungsteams verkörpert.
Durch die Formalisierung und Konzentration der realisierten Logik in Algorithmen und die Realisierung ihrer Ergebnisse als Vorschläge oder Entscheidungen werden jedoch die bestehenden Vorurteile oder ggf. unbeabsichtigte diskriminierende Geschäftspraktiken manifestiert und demonstriert. Diese Effekte entstehen als Produkt in der letzten Phase des KI-basierten IT-Systems namens „Agieren“. Repräsentations- und Allokationsschäden, die durch die getroffenen Entscheidungen jeweils einzelne Individuen betreffen, können als Aktionsergebnisse eines KI-basierten Systems auch Vorschläge wie bei der Auswahl von Musik oder Filmen, Entscheidungen wie bei Entscheidungsunterstützungssystemen oder direkte Aktionen wie bei Industrierobotern entstehen. Jeder dieser Ergebnistypen kann eigene Probleme aufwerfen und neue Herausforderungen auslösen. Automatisierung kann zu einem Verlust von Arbeitsplätzen in den Bereichen mit niedrigen Qualifikationsanforderungen führen. Auch die algorithmische Vorauswahl und Darstellung von Nachrichten und Informationen führt zu Effekten, die unter den Stichworten „Filterblase“ und „fake news“ in der öffentlichen Diskussion präsent sind. Das fehlende Vertrauen und die fehlende Transparenz der Kriterien für getroffene Entscheidungen sowie Transparenz der Abläufe im System führen dazu, dass die Akzeptanz der Informationstechnologie im Allgemeinen und der KI-basierten Systeme im Speziellen darunter leidet. Zum anderen können die algorithmischen Entscheidungen nicht immer nachvollzogen, korrigiert und angepasst werden. In vielen Fällen werden solche Systeme nach ihrer Implementierung und anhand der bereits getroffenen Entscheidungen angepasst. Dadurch entsteht der Eindruck, dass der eigentliche Livebetrieb zur Evaluation der Systemergebnisse verwendet wird. Dies passiert besonders oft bei der öffentlichen Verwaltung, wo Sozialleistungen und Versorgungsmaßnahmen im Mittelpunkt stehen. Das ist ein Weg, der sozial unverträglich ist. Daraus ist ersichtlich, dass Ethik und IT zusammengebracht werden müssen. Jedes einzelne Unternehmen, das KI-basierte Informationssysteme entwickelt, muss diese Schritte einhalten und überwachen. Die Richtlinien und Wertekodizes sind die Werkzeuge der Ethik. Im der modernen Softwareentwicklung ist dies jedoch problematisch, da sie für eine unmittelbare Umsetzung in ein Softwaresystem sehr abstrakt gehalten ist. Transparenz, Fairness und Nachvollziehbarkeit von Systemen und deren Entscheidungen müssen auch innerhalb des Entwickler- und Managementteams bereits im Zuge der Anforderungserhebung berücksichtigt und integriert werden. Nutzen Sie in Ihrem Entwicklerteam männliche und weibliche IT-Experten und gehen somit den ersten Schritt in die richtige Richtung zu Gestaltung von IT-Systemen, welche nicht nicht diskriminierend und auch fair funktionieren. Ethische Fragen werden kontextabhängig unter den Beteiligten der Firma bzw. dem Entwicklerteam, im Rahmen der gesellschaftlichen Konventionen, ausgehandelt. Im Kontext der Entwicklung von KI-basierten Systemen dienen sie dazu, das Wohl der Gesellschaft und des Einzelnen voranzutreiben und Innovationen anzustoßen, die sich explizit mit diesen Fragen beschäftigen. Es gibt kein allgemeingültiges konkretes Umsetzungsmuster bei der Entwicklung moderner Software. Nutzen sie Best Practices, Normen und Aspekte, die auch in ihrem Unternehmen gelebt werden oder sie bringen ethische Aspekte in ihre digitale Lösung durch intensive Diskussion und Austausch mit ihren Anwendern und Kunden. Allerdings werden die technischen Lösungen unsere gesellschaftlichen Werte prägen und nicht umgekehrt.

Ethik und KI-basierten intelligenten Systeme

Veröffentlicht von administrator

BLOG & KI Text Generator | UNAIQUE.NET

Die mobile Version verlassen