Zum Inhalt oder zum Footer

Berichterstellung mit KI in der Sozialen Arbeit – Erwartungen und Realität

07.08.2025 - 8 Min. Lesezeit

Andere
Portrait von Sabine Muff, Sozialinfo.

Sabine Muff

Produktmanagement Digitalisierung | Sozialinfo

Ein Sozialarbeiter schreibt einen Bericht am Laptop.

KI-basierte Berichtserstellung verspricht Entlastung von Routinetätigkeiten und Effizienzsteigerung. In der realen Anwendung zeigt sich, dass es noch ein weiter Weg ist, bis solche Anwendungen den Anforderungen professioneller sozialarbeiterischer Dokumentation gerecht werden.

Matthias Andenmatten ist Informatiker und Sozialpädagoge HF. Im Rahmen seines Masterstudienganges «Leadership in Innovation and Technology» an der BFH hat er seine Masterarbeit zum Thema «Automatisierte Berichterstellung mit Künstlicher Intelligenz» geschrieben. Darin ging er der Frage nach, ob sich KI-Modelle wie Large Language Models (LLMs) für die automatisierte Erstellung von Berichten in der Sozialen Arbeit eignen. Als Basis für die Berichte dienten Journaleinträge in Adressat*innendossiers einer stationären heilpädagogischen Institution mit Beschäftigung. Neben den technischen Anforderungen hat sich die Arbeit mit den methodischen und ethischen Rahmenbedingungen für einen KI-Einsatz in der Sozialen Arbeit befasst und enthält Handlungsempfehlungen für Institutionen und Anbieter*innen von Softwarelösungen. Im Interview gibt Matthias Auskunft darüber, was er herausgefunden hat.

Large Language Models (LLMs) sind leistungsstarke Sprachmodelle, die mit sehr grossen Textmengen trainiert wurden. Sie können menschliche Sprache analysieren, strukturieren und neue Texte generieren. Dabei bearbeiten sie vielfältige Aufgaben wie Textzusammenfassungen, Beantwortung von Fragen oder Umformulierung – ohne echtes Sprachverständnis im menschlichen Sinne, sondern basierend auf statistischen Mustern.

Sozialinfo: Matthias, wo siehst du persönlich Potential im Einsatz von KI in der Sozialen Arbeit? 

Matthias: KI kann Sozialarbeitende bei repetitiven Aufgaben unterstützen, oder auch darin, Daten strukturiert aufzubereiten oder Informationen zu verdichten. So können sie mehr Zeit für Beziehungsgestaltung, Fallreflexion und individuelle Begleitung gewinnen. Insbesondere Bereiche, in welchen wir bereits heute strukturierte Daten haben, scheinen dafür prädestiniert zu sein. 

Ist die Berichterstellung ein solcher Bereich, der sich mittels KI automatisieren lässt?  

Technisch ist eine automatisierte Berichterstellung grundsätzlich möglich, sie ist aber mit erheblichen Einschränkungen verbunden – insbesondere in Bezug auf die zugrunde liegende Datenqualität, das Risiko von Halluzinationen, die mangelnde Transparenz der Modelle und ihrer Resultate, den Datenschutz besonders schützenswerter Inhalte sowie die Nachvollziehbarkeit der generierten Texte. Ein Bericht in der Sozialen Arbeit ist ein fachlich fundiertes, nachvollziehbares Dokument, das den Verlauf, die Einschätzungen und die geplanten Massnahmen einer Unterstützung transparent und adressat*innengerecht festhält. Je klarer unser Verständnis ist, was ein guter Bericht ist und welche Verantwortung damit verbunden ist, desto wirksamer werden die Inhalte. Dieses gemeinsame Verständnis von Regeln und Standards hilft uns beim Verfassen der Berichte. In vielen Bereichen fehlen jedoch solche Standards, was für die Implementierung von Künstlicher Intelligenz zum Problem wird, da die generierten Resultate ohne einheitliche Grundlagen fachlich kaum überprüfbar sind. Obwohl KI heute sehr eloquente Texte verfassen kann, gehe ich deshalb aktuell davon aus, dass sie primär bei der Strukturierung und Vorverarbeitung von Daten unterstützen kann. Einen fachlich validen Bericht konnte ich in meiner Masterarbeit nicht generieren. 

Welche Schlussfolgerung ziehst du daraus? 

Meine wesentlichste Erkenntnis ist, dass KI die fachliche Expertise von Fachkräften nicht ersetzen kann. KI kann unterstützend wirken, etwa bei der Strukturierung oder Formulierung von Berichten. Zentrale Prinzipien der Sozialen Arbeit – wie Fachlichkeit, Menschlichkeit, Ethik, Vertrauen, Partizipation, Selbstbestimmung, Gerechtigkeit, Menschenwürde und Vertraulichkeit – bleiben jedoch unersetzbar und müssen auch beim Einsatz von KI stets gewahrt bleiben. 

Gemäss Studien unterschätzen viele Führungskräfte, wie oft ihre Mitarbeitenden KI im Arbeitsalltag auch ohne Regelungen bereits einsetzen. Wie wirkt sich diese Nutzung aus?  

Wenn ich persönlich KI einsetze, bin ich in der Regel nicht schneller. Obwohl das Ergebnis häufig präziser und qualitativ besser ist, benötige ich viel Zeit, um es kritisch zu prüfen. Diese Erfahrung zeigt, wie wichtig es ist, dass der Einsatz von KI bewusst und reflektiert geschehen sollte. Ohne klare Regelungen kann es zu unsicheren Ergebnissen, Datenschutzrisiken und einem falschen Vertrauen in die Technologie kommen.

Portrait von Matthias Andenmatten

Matthias Andenmatten

Ausbildung

Informatiker und Sozialpädagoge HF

ehemaliger Bereichsleiter socialweb GLAUX GROUP AG

Damit zerstörst du vermutlich bei manchen Personen die Illusion, mit KI viel Zeit gewinnen zu können. 

Ja, es war natürlich eine grosse Hoffnung – sowohl von mir persönlich als auch vom Auftraggeber –, dass sich Berichte und Dokumentationen einfach erstellen lassen. In der Masterarbeit konnte ich aufzeigen, dass in einem generierten Bericht beispielsweise eine Medikamentenabgabe dokumentiert war, die gar nicht stattgefunden hat oder dass das Modell Nebenwirkungen erwähnt hat, die im Dossier nicht festgehalten waren. Die Schwierigkeit ist, dass man sehr «dossierkundig» sein muss, um den Bericht resp. das Ergebnis der KI validieren zu können – so sehr, dass man ihn genauso gut selbst schreiben könnte. Sehr gut funktioniert hat es, mit klarer Anweisung einen bestehenden Text beispielsweise durch ChatGPT überarbeiten zu lassen. Das Ergebnis fand ich in solchen Fällen durchaus überzeugend – allerdings mussten die Inhalte zuvor anonymisiert werden, was wiederum zeitraubend war.  

Eine weitere Erkenntnis deiner Masterarbeit ist, dass für eine automatisierte Berichterstellung Daten standardisiert erhoben werden müssen. Inwiefern lässt sich dies mit dem Prinzip vereinbaren, dass sich Soziale Arbeit am Individuum orientieren soll? 

Aus meiner Sicht schränkt eine standardisierte Datenerhebung die Orientierung am Individuum nicht ein, sondern stellt vielmehr einen Qualitätsnachweis dar. Sie sichert, dass wir unseren Betreuungs- oder Begleitungsauftrag nicht willkürlich gestalten, sondern auf fachlich begründeten Grundlagen aufbauen. Standardisierung bedeutet nicht, dass wir das Individuum nicht mehr sehen dürfen, sondern schafft eine verlässliche Basis für Reflexion und fachliche Einschätzung. Dokumentation sollte daher kein Selbstzweck sein, sondern ein Werkzeug, das uns in der individuellen Begleitung unterstützt. Standardisiert wird nicht der Inhalt, sondern Themengebiete, Normierung von Abkürzungen usw. 

Der Einsatz von KI setzt eine hohe Sensibilität bei der Erfassung persönlicher Daten voraus. Ist das im Sozialbereich gegeben? 

Ich glaube, dass Sozialarbeitenden – und auch einigen Institutionen – heute zu wenig bewusst ist, wozu welche Daten erfasst werden. Ich weiss nicht, in welcher Tiefe dieser Austausch in der Sozialen Arbeit bislang stattgefunden hat. Die Dossiers, die ich lesen konnte, hatten eher Übergabecharakter, wobei es nicht immer gelang, auf die Metaebene zu gehen und die übergeordneten Ziele im Blick zu behalten.  

Könnte die Automatisierung der Berichterstattung zu mehr Klarheit darüber führen, wozu wir was dokumentieren? 

Ich weiss nicht, ob KI der Gamechanger ist. Bestenfalls stossen die neuen technologischen Möglichkeiten Diskussionen darüber an, wie sich die Dokumentation in Zukunft gestalten soll. In der Sozialen Arbeit scheint nicht immer klar, weshalb bestimmte Daten erhoben werden, in welchem Zusammenhang sie zum eigentlichen Auftrag stehen und was daraus abgeleitet wird. Würde die Dokumentationspflicht gezielter geregelt oder teilweise reduziert, könnten auch ohne KI Ressourcen geschont und gleichzeitig die Qualität verbessert werden.

« Manchmal stelle ich mir KI als Kirsche vor, die ich am Schluss auf einen Kuchen lege. Das heisst: Erst wenn alle Prozesse gut zusammenwirken, alle Verantwortlichkeiten geklärt sind, ein gemeinsames Führungsverständnis besteht und valide Standards eine breite Basis bilden, kann KI ihr Potenzial entfalten. »

Portrait von Matthias Andenmatten

Matthias Andenmatten

Welche ethischen und datenschutzrechtlichen Fragen stellen sich beim Einsatz von KI bei der Berichterstellung? 

Ich sehe vielschichtige Herausforderungen beim Einsatz von Künstlicher Intelligenz. Ein Beispiel: Systeme mit KI basieren in der Regel auf einem Modell, das Eingaben verarbeitet und ein Ergebnis liefert. Zum Zeitpunkt meiner Arbeit existierten unzählige solcher Modelle – allein auf der Plattform HuggingFace waren es über 800'000. Das bedeutet hunderttausende Möglichkeiten, mit denselben Eingabedaten potenziell unterschiedliche Ergebnisse zu erzeugen. Hier stellen sich Fragen der Nachvollziehbarkeit, Transparenz und Ethik: Wer entscheidet, welches Modell für einen IV- oder Schulbericht geeignet ist? Wer trägt die Verantwortung für die Auswahl und schlussendlich die Resultate? Welche Funktionen bietet das Modell? Mit welchen Daten wurde es ursprünglich trainiert und welche Vorurteile sind in den Daten enthalten?  

Aufgrund der raschen Entwicklung nehme ich in Organisationen im Sozialbereich einen gewissen Druck wahr, KI einzusetzen. Wie erlebst du das? 

Ich verstehe, dass sich viele Institutionen unter Druck gesetzt fühlen. Allein wenn ich mich bei LinkedIn einlogge, begegnet mir kaum noch ein anderes Thema. In meiner Arbeit habe ich jedoch gezeigt, dass es für einzelne Institutionen sehr schwierig ist, KI so zu implementieren, dass sie valide Resultate liefert. Für eine verantwortungsvolle und gezielte Integration von KI braucht es ein gemeinsames Verständnis darüber, wofür KI eingesetzt werden soll, welche fachlichen Standards gelten, welche Grenzen zu beachten sind und verbindliche Leitlinien für dieses neue Hilfsmittel. Hier sehe ich alle Akteur*innen – Fachverbände, Politik, Zuweiser*innen und Institutionen – in der Verantwortung. 

Was können Organisationen tun, um den Anschluss nicht zu verpassen? 

Ein Ziel wie «Dieses Jahr haben wir als Institution KI implementiert» halte ich aktuell weder für förderlich noch für fachlich oder organisatorisch sinnvoll. Aus meiner Perspektive wäre es zielführender, Fachpersonen zu informieren und darin zu stärken, KI besonnen und zielgerichtet zu nutzen. Fachpersonen stehen vor der Herausforderung, fachlich souverän und dabei effizient zu bleiben und gleichzeitig den Umgang mit neuen Technologien zu erlernen. Manchmal stelle ich mir KI als Kirsche vor, die ich am Schluss auf einen Kuchen lege. Das heisst: Erst wenn alle Prozesse gut zusammenwirken, alle Verantwortlichkeiten geklärt sind, ein gemeinsames Führungsverständnis besteht und valide Standards eine breite Basis bilden, kann KI ihr Potenzial entfalten. 
Deshalb sollten Organisationen zunächst prüfen, ob grundlegende Themen wie Prozessqualität, Digitalisierung und Datenkompetenz bereits ausreichend entwickelt sind.  

Welche Kompetenzen benötigen Fachperson der Sozialen Arbeit im Umgang mit KI?

Aus meiner Sicht braucht es eine stufengerechte Herangehensweise über alle Ebenen der Institution hinweg. Selbst Verwaltungsrät*innen beschäftigen sich heute intensiv mit digitalen Strategien, verfügen aber häufig nicht über ein ausreichendes Verständnis für die Funktionsweise und die Grenzen von KI. Es reicht nicht, Ziele im Bereich KI zu formulieren, ohne die Auswirkungen auf Strukturen, Prozesse und Mitarbeitende zu verstehen. Entscheidend ist ein Austausch über Chancen und Risiken auf Augenhöhe zwischen allen Beteiligten. Das Wichtigste scheint mir jedoch, eine kritische Haltung zu bewahren, Versprechen aus Online-Medien oder Werbung sorgfältig zu prüfen und sich kontinuierlich fachlich wie auch technisch weiterzubilden. 

Inwiefern können Leitlinien und/oder eine Strategie im Umgang mit KI innerhalb einer Organisation unterstützend wirken? 

Leitlinien zeigen uns im besten Fall Richtung, Grenzen und Wege auf. Ein Konzept allein bringt aber wenig, wenn die Inhalte nicht gemeinsam mit den Fachpersonen in der Organisation verankert werden. In einigen Projekten konnte ich beobachten, dass Institutionen die Fertigstellung des Digitalisierungskonzepts als Abschluss der Digitalisierung verstanden haben. Tatsächlich sollte dies jedoch der Ausgangspunkt für einen kontinuierlichen Entwicklungsprozess sein. Digitalisierung ist ein laufender Prozess, der von Anpassung und Optimierung lebt. Genau das lässt sich auch auf KI übertragen: Heutige Modelle und technische Möglichkeiten werden bereits in wenigen Monaten überholt sein. Deshalb braucht es Leitlinien, die flexibel bleiben und regelmässig überprüft werden. 

Wie können Adressat*innen der Sozialen Arbeit vom Einsatz von KI profitieren? Wo siehst du darin Risiken? 

Wir können alle vom Einsatz von KI profitieren, insbesondere wenn wiederkehrende Arbeiten erleichtert oder beschleunigt werden. Für Adressat*innen kann das bedeuten, dass Fachpersonen mehr Zeit für Beziehungsarbeit und individuelle Unterstützung haben. Als grösstes Risiko sehe ich, dass Ergebnisse von KI zu wenig reflektiert und unkritisch übernommen werden. KI wird uns sicher bleibend unterstützen – aber sie wird die professionelle Verantwortung und Einschätzung bis auf Weiteres nicht ersetzen können. 

Mit dem Einsatz von KI ist oft die Hoffnung auf Entlastung und mehr Effizienz verbunden. Gleichzeitig ist der Ressourcenverbrauch für das Trainieren und Betreiben von KI-Systemen enorm, für die Entwicklung arbeiten Menschen teilweise unter prekären Bedingungen. Wo siehst du die Verantwortung der Sozialen Arbeit, diese Aspekte in der Nutzung von KI zu berücksichtigen?  

Ich möchte diese Verantwortung nicht auf die Soziale Arbeit beschränken. Diese Diskussion ist essenziell und muss auf verschiedenen Ebenen geführt werden: politisch, juristisch, ökologisch, technisch, aber auch gesellschaftlich. Im vergangenen Jahr wurde beispielsweise in der EU der AI Act verabschiedet, eine Verordnung, die bereits viele dieser Fragen regelt – von Ressourcenverbrauch bis zu ethischen Standards. Die Soziale Arbeit kann und sollte sich heute und zukünftig an solchen Vorgaben orientieren. 

Nebst den konkreten Anwendungen geht es beim Einsatz von KI auch um übergeordnete Themen. Welches Menschenbild fördert deiner Meinung nach KI – und was bedeutet das für uns als Gesellschaft? 

Meiner Ansicht nach fördert KI tendenziell ein Menschenbild, das den Menschen vor allem als datenlieferndes und prognostizierbares Wesen betrachtet. Allerdings gilt das nicht nur für KI an sich, sondern für viele der bereits heute vielzählig im Einsatz stehenden Technologien, wo wir scheinbar kostenlose Angebote mit unseren Daten bezahlen. Für die Gesellschaft bedeutet das, dass wir besonders wachsam bleiben müssen, um menschliche Komplexität, Individualität und Würde nicht auf technisch messbare Merkmale zu reduzieren.

« KI wird uns sicher bleibend unterstützen – aber sie wird die professionelle Verantwortung und Einschätzung bis auf Weiteres nicht ersetzen können. »

Portrait von Matthias Andenmatten

Matthias Andenmatten

Inwiefern tangiert das Konzept der KI die Soziale Arbeit als Menschenrechtsprofession? 

Das Konzept der KI birgt das Risiko, Grundprinzipien wie Autonomie, Teilhabe und Nichtdiskriminierung zu unterlaufen. Wenn Entscheidungen zunehmend automatisiert getroffen werden oder Menschen auf Datensätze reduziert werden, braucht es klare ethische Leitplanken, um die Rechte der Adressat*innen zu wahren. Hier sei nochmals auf die Modelle verwiesen, welche mit unzähligen Datensätzen trainiert werden. In der Regel sind aber bereits in diesen Datensätzen Vorurteile – technisch wird von «Bias» gesprochen – enthalten. Hier müssen wir wachsam sein, damit wir nicht in überholte Muster steuern, welche potenziell in den Daten überrepräsentiert sind. 

Welches Fazit ziehst du für die Profession der Sozialen Arbeit: Wann bedeutet der Einsatz von KI einen Mehrwert? 

Aus Sicht der Profession bedeutet der Einsatz von KI dann einen Mehrwert, wenn er die fachliche Arbeit unterstützt und administrative Aufwände reduziert, ohne die Qualität, Transparenz und Verantwortung gegenüber den Adressat*innen zu gefährden. 
Darüber hinaus kann allein die Auseinandersetzung mit neuen technischen Möglichkeiten einen Mehrwert schaffen, indem sie uns dazu anregt, unsere Haltung, Prozesse und fachlichen Standards immer wieder kritisch zu reflektieren – auch dann, wenn wir KI letztlich gar nicht implementieren.

Die Erkenntnisse aus der Masterarbeit in Kürze zusammengefasst:

Eine direkte vollautomatische Integration von KI in die Berichterstellung ist derzeit nicht sinnvoll. Stattdessen bietet KI Potenzial als unterstützendes Werkzeug, um Fachpersonen bei der Strukturierung, Formulierung und Validierung von Berichten zu entlasten. Um dieses Potenzial zu nutzen, werden folgende Massnahmen empfohlen:

  • Datenqualität verbessern: Einführung verbindlicher Dokumentationsstandards. 
  • Interdisziplinäre Zusammenarbeit fördern: Enge Abstimmung zwischen Sozialer Arbeit, IT, Fachverbänden und Hochschulen zur Entwicklung praxisnaher KI-Standards.  
  • Schulungen für Fachpersonen: Sensibilisierung für den Umgang mit KI-gestützten Assistenzsystemen zur Qualitätssicherung der Berichte. 
  • Kritische Auseinandersetzung: Es ist wichtig, sich zu informieren und Inhalte, Fachstandards, ethische Grundsätze, Grenzen und Resultate stets kritisch zu hinterfragen. 
  • Klare Zuständigkeiten und Prozesse festlegen: Nur wenn Verantwortlichkeiten, Datenschutzfragen und fachliche Standards verbindlich geregelt sind, kann der Einsatz von KI in der Sozialen Arbeit professionell und verantwortungsvoll gelingen.

Autor*in