Der Nutzen von Large Language Models für die Soziale Arbeit

Foto: adobestock Dejan

Das Potenzial von künstlicher Intelligenz und grossen Sprachmodellen – sogenannten Large Language Models (LLM) – scheint für die Soziale Arbeit von Bedeutung zu sein und wird in Fachkreisen vermehrt diskutiert. In der Praxis werden sie aber noch kaum eingesetzt. Im Rahmen einer Forschungswerkstatt experimentierten Studierende der Sozialen Arbeit mit Modellen wie ChatGPT und beurteilten deren Chancen und Risiken.

Es ist zu erwarten, dass Large Language Models (LLM) in Praxis, Forschung und Lehre der Sozialen Arbeit Einzug halten, auch wenn ihre Verwendung aktuell noch eine Ausnahme darstellt. Insbesondere Chat-Bots, die kaum von menschlichen Kommunikationspartner*innen zu unterscheiden sind, erscheinen für die Kommunikation mit Klient*innen interessant. Auch könnten LLM bei administrativen Tätigkeiten Entlastung bieten. In der Sozialen Arbeit müssen – wie in anderen Feldern auch – Sinn, Nutzen und Risiken von LLM jedoch für alle involvierten, zum Teil vulnerablen Parteien bewusst reflektiert werden.

Im Rahmen einer Forschungswerkstatt entwickelten Studierende der Sozialen Arbeit daher solche Anwendungen und hinterfragten diese kritisch. Sie erarbeiteten sich vorgängig Wissen zur Funktionsweise von LLM, lernten Einsatzmöglichkeiten in der qualitativen und quantitativen Sozialforschung kennen und setzten sich mit ethischen Aspekten wie der Reproduktion von Stereotypen auseinander.

Darauf entwickelten die Studierenden innovative Projektideen für die Anwendung von LLM, setzten diese in Prototypen um und untersuchten ihre Chancen und Risiken. Zwei Projekte werden nachfolgend vorgestellt.

Intake-Gespräch auf dem Sozialdienst

Sozialarbeitende auf Sozialdiensten bearbeiten oft eine hohe Anzahl von Fällen. Könnte es sie entlasten, wenn ChatGPT das Intakte-Gespräch mit den Klient*innen führt? Andrea Brunner, Marco Hofstetter und Sangavi Thangeswaren entwickelten dazu einen «fine-getuneten» ChatBot als Gesprächspartner und trainierten ihn mit Fachliteratur zur Gesprächsführung, dem Sozialhilfegesetz des Kantons Bern und den SKOS-Richtlinien. Darauf verglichen sie dessen Intake-Gesprächsführung mit derjenigen menschlicher Sozialarbeitenden bezüglich Klient*innen-Zentriertheit und fachlicher Korrektheit.

Dabei stellten sie Mängel des ChatBots bei der Gesprächsführung fest. Der Bot stellte die Fragen in einer unpassenden Abfolge, stellte unüberblickbar viele Informationen zur Verfügung, liess wichtige Themen aus und tendierte zur Fokussierung auf ein Thema. Entsprechend kamen die Studierenden zum Schluss, dass der ChatBot die Fachpersonen gegebenenfalls in der Intake-Gesprächsführung unterstützen kann, aber nicht in der Lage ist, das Gespräch eigenständig zu führen.

Berichte und Empfehlungen in der Arbeitsintegration

In der Arbeitsintegration ist es besonders zeitaufwändig, Berichte zu verfassen und Empfehlungen zu erstellen. Könnte der Microsoft Copilot diese Arbeit übernehmen? Annika Bergers, Melanie Repetto und Samira Smaili bearbeiteten anonymisierte Journalbeiträge zu drei Klient*innen mit LLM. Sie baten Copilot, Berichte im Umfang von 4000 bis 5000 Zeichen zur deren Arbeitsleistung und Verhalten zu verfassen. Auch sollte er eine Empfehlung abgeben, ob die bestehenden Massnahmen verlängert werden sollen.

Nach der Analyse der generierten Berichte und Empfehlungen kamen die Studierenden zum Schluss, dass LLM grundsätzlich das Potenzial haben, Berichte im Kontext der Arbeitsintegration zu verfassen. Auch die Empfehlungen bezüglich der Massnahmen stimmten mit den Einschätzungen der Sozialarbeitenden überein. Allerdings überschritt der Copilot den für die Berichte vorgegebenen Umfang in den meisten Fällen und machte nicht genügend transparent, welche Journaleinträge für den Bericht beigezogen wurden. Da die Studierenden vermuten, dass sich diese Mängel bei komplexeren Fällen potenzieren, empfehlen sie, dass die Berichte durch die Sozialarbeitenden überprüft werden.

Gute Voraussetzungen für weitere Entwicklungen

Die Studierenden bewiesen während ihren Projekten grosses Interesse und Geschick, innovative LLM-Anwendungen für die Soziale Arbeit zu entwickeln und kritisch zu befragen. Dass sie keine Berührungsängste zeigten, mit KI-Modellen wie ChatGPT oder Copilot zu experimentieren, stimmt hoffnungsvoll. Denn für eine menschenzentrierte digitale Transformation der Sozialen Arbeit ist es entscheidend, dass KI-Tools in Kooperation von technischer und sozialarbeiterischer Expertise erstellt werden. Es zeigte sich aber auch, dass in der Beurteilung der entwickelten Anwendungen klarer Orientierungsbedarf besteht. Hier ist die Hochschule gefordert, in diesem neuen Feld wissenschaftlich fundiertes Wissen und Handlungsanweisungen zu entwickeln.

 


Kontakt:

 

Literatur und weiterführende Links:

Beitrag teilen
0 Kommentare

Schreiben Sie einen Kommentar

Time limit is exhausted. Please reload CAPTCHA.