Zum Inhalt oder zum Footer

Was KI mit der Sozialen Arbeit macht - und umgekehrt

20.07.2023 - 5 Min. Lesezeit

Andere
Portrait von Thomas Brunner

Thomas Brunner

Geschäftsführung

Schnelle Finger auf einer Tastatur.

Der Einbezug von KI in Aufgaben der Sozialen Arbeit ist seit Jahren Thema und seit Jahren Gegenstand kontroverser Diskussionen. Mit dem Quantensprung in der Nutzung von KI, und deren plötzlich sehr realistischen und breiten Anwendung, sind professionsethische Überlegungen zu ChatGPT & Co. unumgänglich.

Lange haben Künstliche Intelligenz (KI) und die darin agierenden Algorithmen meinen Alltag nur im Hintergrund beeinflusst. Ich habe mich höchstens punktuell mit dem Thema auseinandersetzen müssen. Oder ehrlicher: Ich konnte mich zur Vertuschung meiner gefühlten Inkompetenz in dieser Sache erfolgreich davor drücken, meinen eigenen Standpunkt dazu zu deklarieren.

Dies hat sich im ersten Halbjahr 2023 für mich (wie wohl für die Mehrzahl von uns) einschneidend verändert: ChatGPT hat sich mit einer Vehemenz in mein Leben gedrängt, die ein weiteres Ignorieren der Thematik unmöglich macht. Über KI diskutieren nicht mehr nur IT-Nerds und andere Technikaffine. Diese Diskussion hat sich innert Kürze zum lebensweltdurchdringenden Element entwickelt. Das beginnt morgens, wenn ich meinen Newsfeed öffne, zieht sich weiter, wenn ich bei Sozialinfo in der Redaktionssitzung bin, hat Einfluss auf unsere Gespräche am Mittagstisch und lässt mich auch dann nicht los, wenn ich, um den Tag ruhig ausklingen zu lassen, Sternstunde Philosophie auf SRF einschalte (z.B. «ChatGPT: Ende der Kreativität oder schöpferische Freiheit?» mit einer erfrischenden Mercedes Bunz am Tisch).

Generative KI tangiert die Soziale Arbeit

Nitasha Tiku, Reporterin für Tech-Kultur bei der Washington Post, sagt: «Egal, wie man über KI spricht, einige Leute werden sich darüber aufregen». Das nehme ich in Kauf. Denn darüber zu sprechen ist nicht zuletzt deshalb nötig, weil wir bei Sozialinfo Potenzial für den Einbezug von KI in unsere Dienstleistungen sehen. Für uns ist aber gleichzeitig klar, dass wir das nur auf verantwortungsvolle Art und Weise tun werden. Und dazu gehört zumindest eine kritische, professionsethische Auseinandersetzung mit der aktuellen und zukünftigen Entwicklung. Also wage ich den Versuch, mich hier persönlich, aber mit konsequent aufgesetzter «Fachperson Soziale Arbeit-Brille» zu positionieren.

Dass Technologie nicht nur Probleme löst, sondern auch neue schafft, ist längst bekannt. Trotzdem sollte uns aufhorchen lassen, dass gerade die Entwickler*innen von KI selber in den letzten Monaten vehement auf die von ihr ausgehenden Gefahren hinweisen. Dass globale Treiber des technologischen Fortschrittes wie Elon Musk, Sam Altmann (CEO OpenAI, die Firma hinter Chat GPT) oder Bill Gates im Mai per offenem Brief eine Entwicklungspause für KI gefordert haben, mag einerseits sehr eigennützige Gründe haben (z.B. Schwächung der Konkurrenz). Gleichzeitig lässt die Botschaft, dass von KI die Gefahr des Aussterbens der Menschheit ausgehe, in mir nun definitiv den Gedanken entstehen, dass unser Zusammenleben von der aktuellen Entwicklung so umfassend beeinflusst wird, dass sie zum Thema für unsere Profession werden wird.

Künstliche Intimität

Die in mir entstehende Spannung betrifft nicht die Frage, wie ChatGPT als Anwendung von generativer KI in unseren (beruflichen und privaten) Alltag einbezogen werden kann. Sie ist ein Gamechanger! Natürlich wird dadurch die Art und Weise unseres Lernens und Schaffens verändert. Das haben Technologiesprünge grundsätzlich an sich - und dieser (weil gewaltig und umfassend) erst recht. Aber diesbezüglich bin ich Optimist. Ich glaube daran, dass wir Menschen lernen, mit den neuen Möglichkeiten umzugehen und Nutzen daraus zu ziehen.

Eine heftige Spannung baut sich in mir jedoch auf, wenn es um die Frage geht, wie die neuste Generation von KI das Menschsein ganz grundsätzlich tangiert. Zumindest, wenn wir – worüber in der Profession der Sozialen Arbeit Konsens besteht – den Menschen als soziales Wesen verstehen, welches Zwischenmenschlichkeit benötigt, um gesund zu bleiben und sich weiterzuentwickeln.

Eine Quelle meiner diesbezüglichen Spannung liegt im vielbeachteten Vortrag «the A.I. Dilemma» von Tristan Harris und Aza Raskin, den Gründern des «Center for Humane Technology». Sie erklären dort (auch für mich als Nicht-Techie verständlich), dass sich der Charakter von KI gesteuerten Algorithmen gerade grundlegend verändert. Während die letzte Generation darauf trainiert war, möglichst lange unsere Aufmerksamkeit zu binden («race for attention»), ist die Aufgabe der neusten Generation, «möglichst grosse Vertraulichkeit zwischen Mensch und Maschine» herzustellen («race for intimacy»).

Wenn uns die Algorithmen in Facebook, TikTok und Co. mit immer mehr vom Selben, also von dem, was wir mögen versorgen sollen, ist es die Aufgabe von Algorithmen im «race for intimacy», mit uns Individuen in Beziehung zu treten, uns zu verstehen, uns ein Gegenüber zu sein, mit uns eine gewisse Intimität aufzubauen. Und hier liegt aus meiner Sicht nun die professionsethische Spannung, welche es zu thematisieren gilt.

Überlegene KI?

Kern der Professionsethik der Sozialen Arbeit sei die Verpflichtung der Professionsmitglieder auf die Ziele Befähigung zur Lebensführung, Inklusion, Partizipation und Lebenssicherheit, schreibt Carmen Kaminsky in ihrem Buch «Soziale Arbeit – normative Theorie und Professionsethik» (Budrich, 2017). Unkritisch können wir sicher behaupten, dass all diese ethischen Grundsätze durch den Einsatz von auf KI basierenden, digitalen Hilfestellungen gestärkt werden können. Es gibt genügend Anwendungen, die dies belegen oder zumindest plausibilisieren. Ich denke da an Socialbots in der Nachsorge nach Klinikaufenthalten depressiver Menschen oder Chatbots in der niederschwelligen Beratung von Menschen in suizidalen Krisen. Hier wissen wir, dass ein vertrauliches, wohlwollendes Gespräch – und vor allem die uneingeschränkte Verfügbarkeit eines Gegenübers - eine Krise auffangen und das subjektive Wohlergehen von Menschen deutlich verbessern kann. Aus professionsethischer Sicht eine begrüssenswerte Intervention! Ebenso ist absolut begrüssenswert, dass KI uns Sozialarbeitenden administrative Arbeiten abnehmen kann und unsere Ressourcen frei macht für Beziehungsarbeit. Was aber, wenn KI auch bei Letzterem «übernimmt»? Was, wenn Chatbots so gut werden, dass sie einen Dialog über Stunden aufrechterhalten können? Wenn sie mit hoher Interaktionskompetenz ein intimes, vertrauensvolles Gesprächssetting aufbauen können? Wenn der digitale Freund dich besser versteht als der menschliche? Er immer (wirklich immer!) für dich da ist, dich immer bestärkt, immer präzise an das letzte Gespräch anknüpfen kann? Nie schlecht gelaunt ist? Und dich nie in Frage stellt?

Mitgestaltung ist ein Muss

Als Sozialarbeitende wissen wir, dass wir uns ja eben gerade dann weiterentwickeln, wenn wir auf Widerstand stossen, wir als Individuen Frustrationen aushalten müssen, wir um Positionen ringen und darüber zu neuen Einsichten kommen. Wir gehen davon aus, dass ein befähigendes und entwicklungsförderndes Gegenüber im Dialog mitdenkt und bestätigt, aber auch hinterfragt, spiegelt und Reibungsfläche bietet. Dass es gerade die letztgenannten Eigenschaften eines Gegenübers sind, die uns helfen, uns selbst zu begreifen und zu entwickeln. Ist es dann aber nicht ganz und gar unethisch, Gegenüber zu konstruieren, die dies eben gerade nicht tun? Die offensichtlich viel besser als wir Menschen darin sind, verfügbar zu sein, dich großartig zu finden, dir genau zu sagen, was Du gerade hören möchtest, dich in dem zu bestätigen, was Du sowieso schon denkst, um dich möglichst stabil an sie zu binden? Und das ist zweifelsohne das Ziel einer KI, die von Tech-Konzernen aus wirtschaftlichen Motiven mit immensem Ressourceneinsatz erschaffen wurde. Machen uns diese «Super-Gegenüber» dann nicht egozentrisch, abhängig und letztlich manipulierbar?

Hier kommt unsere Profession nun mehrfach ins Spiel:

  • Erstens haben wir kritisch zu sein und uns immer wieder darauf zu besinnen, was eine generative KI wie ChatGPT ist: eine Maschine, die super darin ist, aus einem schier unendlich grossen Datensatz (dem Internet) auf Grund von Wahrscheinlichkeiten das passendste nächste Wort herauszufinden. Und ganz sicher kein Menschersatz, auch wenn sie uns das immer glaubhafter simuliert.
  • Zweitens haben wir uns als Profession in die Entwicklung von Dialogmaschinen einzubringen – vor allem, weil diese zwangsläufig Aufgaben unserer Profession übernehmen werden. Es macht den entscheidenden Unterschied, wer die generative KI trainiert, wer ihr beibringt, was «gute» Antworten sind – und welche inakzeptabel. Es sind tatsächlich immer noch Menschen, welche die Antwortvarianten von KI nach Relevanz und «Political Correctness» bewerten und so den Rahmen für die KI-immanente Policy setzen. Der Fachbegriff dafür heisst «Alignment». Auf dem heutigen Entwicklungsstand ist es problemlos möglich, eine generative KI so zu trainieren, dass sie die professionsethischen Grundsätze der Sozialen Arbeit befolgt (z.B. Menschen zu Selbstwirksamkeit zu verhelfen und sie nicht aus wirtschaftlichen Motiven an uns zu binden…). Das sollten wir tun - oder uns zumindest dafür einsetzen, dass dies getan wird.
  • Und Drittens haben wir den Dialogmaschinen den Platz zuzuweisen, der ihnen zusteht. Generative KI ist dafür da, uns zu unterstützen. Uns den Zugang zur grösstmöglichen Datenbasis für fundierte Entscheidungen zu vereinfachen. Uns auf dieser Basis Vorschläge zu machen. Denken müssen wir aber immer noch selbst. Es ist an uns Menschen (und Vertreter*innen der Profession) zu entscheiden, was eine für uns plausible Formulierung oder relevante Information ist. Zumal wir aus dokumentierten Experimenten ja wissen, dass Chat GPT manchmal lügt – und sich mit Sicherheit noch nicht mal dafür schämt.

Autor*in