Grundrechte statt Diskriminierung

So faszinierend sie auch sein mag: Die Künstliche Intelligenz birgt auch Gefahren. Bild: Andy Kelly / unsplash

So faszinierend sie auch sein mag: Die Künstliche Intelligenz birgt auch Gefahren. Bild: Andy Kelly / unsplash

sah. Mit einem Appell wird der Bundesrat aufgefordert, künstliche Intelligenz (KI) zu regulieren und mehr Schutz vor Diskriminierung durch Algorithmen zu schaffen, die bestehende Ungerechtigkeiten u?bernehmen. Grundrechte der Menschen sollen oberste Priorität haben.

Wird etwas neu erfunden, muss man immer aufpassen. Neue Möglichkeiten bergen auch Möglichkeiten für Missbrauch. Bereits heute beeinflussen Algorithmen und Künstliche Intelligenz (KI) Bereiche unseres Lebens stark. Diese Werkzeuge werden vielfältig eingesetzt, um beispielsweise Leistung am Arbeitsplatz zu messen, Inhalte auf Social Media anzuzeigen, Kreditwürdigkeit einzuschätzen, Straffälligkeit vorherzusagen oder staatliche Leistungen zuzuweisen. Wenn hier Grenzen überschritten werden oder Fehler und Diskriminierung stattfinden, ist dies für Betroffene besonders schlimm. Das weiss auch AlgorithmWatch, eine gemeinnützige Nichtregierungsorganisation in Zürich und Berlin. Ihre Themenschwerpunkte sind Algorithmen und KI. Momentan ist KI überall im Gespräch. Diese ist ein Teilgebiet der Informatik, das die Automatisierung von intelligentem Verhalten und maschinellem Lernen beinhaltet. So ist es eine Vision, eine Intelligenz zu schaffen, die sich am menschlichen Denken orientiert und den Programmen ermöglicht, ähnlich wie ein Mensch zu «denken» und zu «handeln». Dass hier ein grosses Gefahrenpotenzial vorhanden ist, liegt auf der Hand.

Planmässige Diskriminierung – berechnet
AlgorithmWatch meint auf ihrer Website, dass sie sich dafür einsetzt, dass Algorithmen und KI «Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit» stärken sollten, statt sie zu schwächen. Im Juni 2024 veröffentlicht AlgorithmWatch CH einen Appell und ruft den Bundesrat dazu auf, konkrete Massnahmen zum Schutz vor Diskriminierung durch Algorithmen und KI zu schaffen. Im Appell gibt AlgorithmWatch CH auch Belege für ihr Anliegen an: Ein Algorithmus im Vereinigten Ko?nigreich verda?chtigte Menschen mit Behinderungen u?berproportional oft des Sozialleistungsbetrugs und unterzog sie bu?rokratischen Pru?fungen. Ein weiteres Beispiel erzählt von den Niederlanden, wo tausende Familien in existenzielle Not getrieben wurden, als ein diskriminierender Algorithmus sie fa?lschlicherweise dazu aufforderte, u?ber Jahre erhaltene staatliche Kinderbetreuungsgelder zuru?ckzuzahlen. Das Fazit von AlgorithmWatch CH hier lautet: «Diese Herausforderungen lassen sich nicht allein auf technischer Ebene lo?sen.»
Auch dazu ein konkretes Beispiel: Ein grosser On-lineha?ndler entwickelte eine Software, um Einstellungsprozesse effizienter zu gestalten. In der Testphase stellte sich aber heraus, dass der Empfehlungsalgorithmus dazu neigte, die Lebensla?ufe von Frauen automatisch auszusortieren. Der Versuch, diese Diskriminierung auf technischer Ebene zu beheben, blieb bis heute erfolglos.

Algorithmen mit Verantwortung?
Es gibt auch Diskriminierung durch Algorithmen in der Schweiz. Eine schlechte Nachricht vorweg: Noch bietet der bestehende gesetzliche Rahmen hier zu wenig Schutz. Jetzt prüft der Bundesrat bis Ende 2024 mo?gliche Ansa?tze zur Regulierung von KI. Anschliessend werden entsprechende und mögliche Massnahmen ergriffen. AlgorithmWatch CH will, dass die KI jetzt reguliert wird – und im Fokus sollen dabei die Grundrechte der Menschen sein. Alle müssen die Möglichkeit erhalten, sich vor Diskriminierung durch Algorithmen zu schützen. Und dieser Schutz soll gewährleistet werden, egal ob die Algorithmen von privaten Organisationen oder Behörden genutzt werden.
Warum werden Algorithmen überhaupt eingesetzt? Weil die Datensätze immer mehr und umfangreicher werden und damit bei der Bearbeitung die Rechenleistung grösser, braucht es verschiedene neue Lösungen. Auch mithilfe von Algorithmen kann die Datenflut auf Muster und Zusammenhänge hin untersucht werden. So ist die Auswertung weiterhin möglich.

Bestehende Ungerechtigkeiten u?bernommen
Dass die Datenauswertung bei einer Flut von Informationen auch weiterhin möglich sein wird, ist grundsätzlich zu begrüssen. Wenn sich aber Programme wie KI eine Intelligenz schaffen, die sich am menschlichen Denken orientiert, erstaunt es nicht, dass hier auch die gleichen Problempunkte, die in der Gesellschaft vorhanden sind, auftauchen. Jede:r, die/der sich mal mit Wissenschaft auseinandergesetzt hat, weiss, dass technisch gesteuerte Entscheidungen keine «objektiven» Ergebnisse liefern. Auch die Systeme selbst sind nicht neutral, denn ihre Hersteller:innen beeinflussten die Entwicklung und den Einsatz der Systeme. So diskriminieren algorithmische Systeme Menschen, die ohnehin schon benachteiligt werden. Betroffene können sich nicht dagegen wehren, weil hier die Diskriminierung nicht «nachweisbar» ist und sich hinter standardisierten Abläufen und «objektiver» Computerarbeit versteckt. Eine Chance sieht AlgorithmWatch CH darin, wenn sichtbar wird, wie automatisierte Entscheidungen zustande kommen.

Appell unterzeichnen: algorithmwatch.ch

Share

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.