Kategorien
Science & Technology

Informatik trifft Ethik

Lesedauer: 6 Minuten

Was ist denn überhaupt moralisch vertretbar?

Im Rahmen der Lehrveranstaltung “Denkweisen der Informatik” trafen sich Studenten der TU Wien mit der Ethik-Expertin, Mag. Gabriele Holzer, eine ehemalige Kollegin von Mag. Renate Zagler (Lehrerin für Religoin und Ethik am BORG Deutsch-Wagram), um eine Diskussion über das Thema “Responsible Thinking” im Bereich der technologischen Forschung durchzuführen. Dazu schrieben die Studenten folgende Erörterungen:

Text 1 – Autor: Lukas Samir Gabsi

In einer Ära, die von exponentiellem technologischen Fortschritt und der Vorherrschaft künstlicher Intelligenz geprägt ist, wird die ethische Dimension unserer Entscheidungen und Innovationen zunehmend zum Dreh- und Angelpunkt. Als Student, der sich inmitten dieses Spannungsfeldes von Ethik und technologischem Fortschritt befindet, stellt sich die Frage nach der Entwicklung ethischer Richtlinien für künstliche Intelligenz als zentrales Anliegen dar. Diese Überlegungen überschreiten jedoch die Grenzen der KI-Forschung und werfen einen breiteren Blick auf die Bedeutung ethischer Leitlinien, insbesondere im Kontext der Medizinethik.

Ethik von KI und Richtlinienentwicklung:

Die interdisziplinäre Zusammenarbeit prägt die Entwicklung ethischer Richtlinien für künstliche Intelligenz (KI) durch eine ganzheitliche Betrachtung der ethischen Implikationen. Die Einbeziehung von Fachleuten aus unterschiedlichen Bereichen wie Ethik, Technologie, Recht und Gesellschaft ermöglicht eine breite Vielfalt an Perspektiven. Diese Diversität trägt dazu bei, die entstehenden Richtlinien breit akzeptabel zu gestalten und verschiedene Interessen und Bedenken angemessen zu berücksichtigen.

Jedoch kann die interdisziplinäre Zusammenarbeit auch zu Komplexität führen, da unterschiedliche Fachleute möglicherweise Schwierigkeiten haben, auf einen gemeinsamen Nenner zu kommen. Der Zeitaufwand für die Beteiligung verschiedener Experten und die Notwendigkeit, Konsens zu erzielen, kann die Entwicklung von Richtlinien verlangsamen.

Zudem birgt die Vielfalt der Perspektiven das Risiko von Interessenkonflikten, die die Konsensbildung und Umsetzung der Richtlinien erschweren könnten.

Ethische Richtlinien im Allgemeinen

Beispiele aus der Medizinethik unterstreichen die Bedeutung ethischer Richtlinien. In komplexen medizinischen Szenarien bieten Richtlinien einen klaren Rahmen für Entscheidungen über Patientenversorgung und Forschung. Sie können als Leitfaden dienen, wenn es um ethische Dilemmata geht, die keine eindeutige Antwort haben. Ein Beispiel könnte die Einhaltung ethischer Codes in den Nürnberger Prozessen sein, wo klare Richtlinien notwendig waren, um moralische Prinzipien inmitten schwerwiegender ethischer Verstöße zu bewahren.

Dennoch könnten ethische Richtlinien in der Medizinethik als zu allgemein wahrgenommen werden, da sie möglicherweise nicht alle Nuancen und Details einer individuellen Situation berücksichtigen. Die Anwendung könnte daher von den individuellen Umständen abweichen und aufgrund unterschiedlicher moralischer Überlegungen variieren. In solchen Fällen könnte es am Ende des Tages auf die individuelle Moralität jedes Einzelnen ankommen.

Pessimistische Haltung gegenüber zukünftigen Innovationen

Eine pessimistische Haltung gegenüber zukünftigen Innovationen könnte auf Bereiche abzielen, in denen die potenziellen Risiken besonders hoch erscheinen. Beispielsweise könnte die Entwicklung von Technologien im Bereich der Überwachung und Datenschutz aufgrund der möglichen Beeinträchtigung der Privatsphäre eine pessimistische Haltung hervorrufen. Eine kritische Einstellung zu solchen Innovationen ist wichtig, um sicherzustellen, dass ethische Standards und individuelle Freiheiten geschützt werden.

Jedoch könnte eine zu pessimistische Betrachtung möglicher Innovationen dazu führen, dass Chancen übersehen werden. Innovationen, die das Potenzial haben, bedeutende positive Veränderungen zu bewirken, könnten aufgrund von übermäßiger Vorsicht nicht die notwendige Unterstützung erhalten. Insgesamt erfordert eine pessimistische Haltung eine sorgfältige Abwägung der potenziellen Risiken und Chancen, um einen ausgewogenen Ansatz für die Bewertung zukünftiger Innovationen zu gewährleisten.

Verantwortlichkeit von Großkonzernen

Ein weiteres Beispiel für verantwortliches Handeln von Großkonzernen könnte im Bereich Datenschutz liegen. Einige Unternehmen haben verstärkte Datenschutzmaßnahmen implementiert und klare Datenschutzrichtlinien formuliert. Diese Bemühungen zeigen eine Sensibilität gegenüber dem Schutz der Privatsphäre der Nutzer und können als Schritt in Richtung verantwortungsbewusster Unternehmenspraktiken gewertet werden.

Jedoch könnten Bedenken hinsichtlich der Wirksamkeit solcher Datenschutzmaßnahmen und der tatsächlichen Umsetzung aufkommen. Inmitten von Datenschutzskandalen und Verletzungen besteht die Notwendigkeit einer genauen Prüfung, um sicherzustellen, dass die Verantwortlichkeit nicht nur auf dem Papier existiert, sondern in der Praxis effektiv umgesetzt wird.

Insgesamt sind diese positiven Beispiele für Verantwortlichkeit von Großkonzernen wichtige Schritte in die richtige Richtung, jedoch bleibt die Frage nach der Wirksamkeit und Tiefe ihrer Umsetzung eine Herausforderung für eine umfassende Beurteilung.

Eigene Meinung

In Bezug auf die Ethik von künstlicher Intelligenz (KI) halte ich eine interdisziplinäre Zusammenarbeit und die aktive Einbindung der Stakeholder für unerlässlich. Die Schaffung ethischer Richtlinien sollte nicht nur auf persönlichen Interessen, sondern auch auf einem breiten Spektrum von Expertenansichten basieren, um einen ausgewogenen Ansatz zwischen Innovation und ethischen Grundsätzen zu finden. Betreffend ethischer Richtlinien generell erkenne ich ihre Rolle als wichtige Leitlinien in moralisch komplexen Situationen an. Dennoch sollte ihre Anwendung nicht zu starr sein, sondern Raum für individuelle Moralvorstellungen lassen, insbesondere in Feldern wie der Medizinethik, wo klare Schwarz-Weiß-Entscheidungen oft fehlen. Bei der skeptischen Betrachtung zukünftiger Innovationen ist es entscheidend, zwischen begründeter Vorsicht und offener Haltung für Fortschritt zu differenzieren. Eine ausgewogene Einschätzung ist erforderlich, um mögliche Risiken zu identifizieren, ohne positive Entwicklungen zu übersehen. In Bezug auf die Verantwortlichkeit von Großkonzernen erkenne ich positive Entwicklungen in Richtung Transparenz und Datenschutz an. Dennoch ist eine kritische Überprüfung dieser Bemühungen notwendig, um sicherzustellen, dass sie nicht nur als oberflächliche Maßnahmen erscheinen, sondern tatsächlich zu verantwortungsbewusstem Handeln führen. Insgesamt ist eine ausgewogene Herangehensweise an diese Fragen entscheidend, um ethische Standards zu wahren und gleichzeitig Innovation und Fortschritt zu fördern.


Text 2 – Autor: Joy Alissa

Kaum jemand kann sich heutzutage noch ein Leben ohne Technik vorstellen. In sämtlichen Lebensbereichen kommen diverse Arten von technologischen Geräten zum Einsatz. Diese entwickeln sich ständig exponentiell weiter und erfordern daher einen verantwortungsbewussten Umgang. Doch ist das tatsächlich der Fall? Können Menschen die Kontrolle über diese technologischen Geräte behalten, oder entwickeln sie im Grunde lediglich eine Abhängigkeit davon?

KI – Richtlinien – Expertin verweist auf Mangel an ethischer Verbindung

Tatsächlich widerspricht die Expertin hier nicht, dass es überall Mythen über KI und die Entwicklung von KI gibt.

“Die Intention, branchenbezogene Innovationen nicht einzuschränken, halte ich für eine Annäherung an das Thema aus der falschen Richtung.”, so die Expertin.

Mag. Gabriele Holzer

Sie begründet ihren Ansatz mit dem Eingehen auf die Problematik, dass technischer Fortschritt „passiert“, ohne die Ethik rechtzeitig implementiert zu haben. Hierbei betont sie, dass es entscheidend sei, die Entwicklung allgemein gültiger ethischer Standards in der KI-Entwicklung, um die Interessen der Wirtschaft mit ethischen Richtlinien abzustimmen. Weiters verweist sie auf den in der Entwicklung befindlichen AI-act.

Pessimistische Haltung gegenüber Entwicklung von KI – sinnvoll?

“Die wachsende Skepsis gegenüber der KI-Entwicklung wird durch bedenkliche Aspekte wie Social Scoring und verstärkte KI-Kontrolle genährt.”, so die Expertin.
Kritiker warnen vor den Folgen von Social Scoring, insbesondere in autoritären Systemen, da es zu einer Bewertung von Menschen basierend auf ihrem Verhalten und sozialen Interaktionen führen kann (so wie eine Dystopie vergleichbar), was die individuelle Freiheit und Privatsphäre gefährdet. Zusätzlich befürchtet man, dass eine zunehmende KI-Kontrolle undurchsichtige Entscheidungen ohne klare Erklärungen zur Folge haben könnte, wodurch Menschen algorithmischen Entscheidungen ausgeliefert sind, ohne dass diese überprüfbar sind.

Diese pessimistische Sichtweise unterstreicht die Notwendigkeit, ethische Richtlinien und gesetzliche Rahmenbedingungen zu etablieren, um einen verantwortungsbewussten Einsatz von KI zu gewährleisten und potenzielle negative Auswirkungen auf Gesellschaft und Einzelpersonen zu minimieren. 🙁

Studien und Ethik – Wen bzw. Was darf man analysieren?

“Durch eine Kategorisierung der Risikogruppen der KI, wie sie im AI-act vorgesehen ist, können Sicherheitsstandards festgelegt werden.”

Mag. Gabriele Holzer

Sie hebt hervor, dass eine solche Systematik es ermöglicht, den Einsatz von KI differenziert zu bewerten und angemessene Schutzmechanismen zu schaffen. Dabei sieht sie die Politik dafür verantwortlich. “Die Politik ist hier gefragt”, unterstreicht die Expertin.
Das ist entscheidend, um sicherzustellen, dass KI-Technologien sich ethisch verantwortungsbewusst entwickeln und unsere Rechte schützen.” Damit wird die Bedeutung einer klaren politischen Rolle bei der Gestaltung und Überwachung der KI-Entwicklung deutlich, um sicherzustellen, dass technologischer Fortschritt im besten Interesse aller geschieht. Also kurz zusammengefasst: “Innovatiion und Entwicklung: Ja – aber mit Verantwortung und Gewissen!”.

Soziales & KI

“Hier muss im Bildungswesen angesetzt werden. Dialogräume für einen generationenübergreifenden Dialog und Diskurs dürfen nicht nur in virtuellen Welten stattfinden, sondern diese Räume müssen im realen Leben geöffnet werden.”

Mag. Gabriele Holzer

Die Schulen und Bildungseinrichtungen müssen zu Orten werden, an denen der Dialog über KI und deren Auswirkungen auf die Gesellschaft gefördert wird”, erklärt sie. “

Es ist entscheidend, dass junge Menschen frühzeitig die Möglichkeit erhalten, sich mit den ethischen, sozialen und wirtschaftlichen Aspekten von KI auseinanderzusetzen.
Gleichzeitig müssen auch ältere Generationen in diesen Dialog einbezogen werden, um von ihren Erfahrungen zu profitieren und einen umfassenden Meinungsaustausch zu ermöglichen.”

Grenzen

“Ein Beispiel, an dem ich die Problematik mit meinen Sus bespreche, ist die Vertretbarkeit von Tierversuchen, besonders Versuche an Primaten.”, so die Expertin.
Hier erklärt sie, dass es international unterschiedliche ethische Richtlinien gibt und dass das dazu führt, dass Forschung in Länder ausgelagert wird, in denen andere Richtlinien gelten. “Diese Problematik darf nicht übersehen werden”, betont die Expertin. 

Verantwortung

Im Hinblick auf die Verantwortung von Forscher:innen betont die Expertin die klare Erwartung ethischen Handelns ohne Ausnahmen. Speziell im technischen Kontext stellt sich die Frage nach der Verantwortung von Techniker:innen für potenziell schädliche Auswirkungen ihrer Innovationen, wie es bei Entwicklungen im militärischen Bereich der Fall ist (z. B. Atombombe, Waffenindustrie).

Mag. Gabriele Holzer:

Beispiel Fukushima: der Betreiber des Kraftwerks hat die gesamte Verantwortung auf sich genommen. Es ist aber eine geteilte Verantwortung zwischen Politik, Betreibern. etc.“

Forschung & Risiken – Zusammenhang

“Wie schon beim Thema Verantwortung und Verantwortungsethik angesprochen: Risiko bedeutet, eine pessimistische Prognose zu ignorieren und das bedeutet, nicht an zukünftige Generationen zu denken und hier reicht die Verantwortung zu wenig weit.”, so die Expertin. 
Der Umgang mit dem Klimaschutz ist hierfür ein gutes Beispiel: “Wer ist Verantwortlich und wer sind die Leidtragenden?”.

Eigene Meinung

Die Expertin betont die Notwendigkeit, sich intensiv mit ethischen Fragen im Bereich der Informatik auseinanderzusetzen. Sie kritisiert die Intention, branchenbezogene Innovationen ohne Einschränkungen voranzutreiben, da dies aus ihrer Sicht eine falsche Herangehensweise darstellt. Die mangelnde ethische Verbindung in der KI-Entwicklung wird als bedenklich betrachtet, insbesondere im Kontext von Social Scoring und verstärkter KI-Kontrolle. Die Expertin plädiert für die Etablierung allgemeingültiger ethischer Standards und verweist auf den in Entwicklung befindlichen AI-Act.

Die Expertin verdeutlicht die Komplexität ethischer Fragen im Zusammenhang mit der fortschreitenden Informatik. Es wird klar, dass die Forschung und Entwicklung von Technologien nicht nur mit Innovationsdrang, sondern auch mit einer klaren Verantwortung und einem Bewusstsein für mögliche negative Auswirkungen einhergehen müssen. 

Die Forderung nach allgemeingültigen ethischen “Standards” und einer aktiven Rolle der Politik erscheint sinnvoll, um einen verantwortungsbewussten Umgang mit KI zu gewährleisten. Der Appell für einen offenen Dialog im Bildungsbereich und die Betonung internationales ethischen “Handelns” spiegeln die Notwendigkeit wider, ethische Fragestellungen auf globaler Ebene zu adressieren.

Es ist im allgemeinen ein sehr offenes Gespräch geworden, ich gebe mich allerdings nicht zur Gänze zufrienden mit den Antworten. Es gibt leider aber auch kein Richtig oder Falsch. 

Oder gibt es? … 🙂

Weitere Texte erfolgen in einem separaten Artikel 🙂 Bis dahin genieße folgendes Video:

responsible thinking
5
4
3
1
Joy Alissa

Von Joyli

Math Nerd with a great love for Tech, Photography & Coffee!
Student at TU Vienna :)
I do enjoy writing and reading as well, so I'll leave it up to you to judge! 🙂

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert