Nr. 114/2022

SCHWERPUNKT drei Angebotsebenen, auf denen KI zum Einsatz kommt: Auf der ersten Ebene werden Übungen zur psychologischen Selbsthilfe angeboten, deren Auswahl eine selbstlernende Software trifft– wieman es von Empfehlungen auf You Tube oder bei Amazon kennt. Auf der zweiten Ebene steht den Nutzer*innen ein Chatbot, ähnlich dem Woebot, als Coach zur Verfügung. Die dritte Ebene ist die KI-gestützte prä- diktive Diagnostik. Ein Algorithmus soll auf Basis erho- bener Daten vorhersagen können, wann sich der jeweilige mentale Gesundheitszustand verschlechtert. In diesemFall würde den Nutzer*innen eine Psychotherapie empfohlen. VORHERSAGEN ZUM MENTALEN ZUSTAND TREFFEN Die prädiktive Diagnostik ist ein zentrales Feld für KI- Gesundheitsanwendungen. Künstliche Intelligenz kann etwa die Funktion eines Frühwarnsystems übernehmen, um gefährdeten Patient*innen das Auftreten einer Störung anzuzeigen, die dann Gegenmaßnahmen einleiten oder sich Hilfe suchen können. An einem solchen Forschungsprojekt arbeitet ein Team am Institut für Angewandte Informatik (InfAI) aus Leipzig gemeinsam mit der Stiftung Deutsche Depressionshilfe, der adesso SE und dem Universitätskli- nikum Aachen. Dabei werden verfügbare Daten aus dem Smartphone oder der Smartwatch der Patient*innen erho- ben und von einem selbstlernenden Algorithmus ausge- wertet. „Aus Herzfrequenz, Bewegungsdaten und etwa der Geschwindigkeit und Art, wie jemand die Tasten seines Smartphones betätigt, kann die KI auf eine Veränderung der psychischen Konstitution schließen“, erklärt InfAI- Geschäftsführer Andreas Heinecke. In der Folge werden die Patient*innen über ihr Smartphone gewarnt und zu Gegen- maßnahmen aufgefordert, etwa mehr Sport oder kontrol- liertem, aber nicht übermäßigem Schlaf. In drei Jahren soll die Anwendung praxistauglich sein. DATENSCHUTZ GENIESST HÖCHSTE PRIORITÄT Aber was ist mit den neuen KI-Sprachmodellen, die in jüngster Zeit für Aufsehen sorgten? Könnten sie die Boos- ter einer künstlichen Intelligenz sein, die irgendwann auch über Einfühlungsvermögen verfügt? Als vor zwei Jahren das Sprachmodell GPT-3 der kalifornischen Firma OpenAI vorgestellt wurde, verblüffte es die Öffentlichkeit mit Elo- quenz und Vielseitigkeit. Es weckt Erinnerungen an den Computer HAL aus Stanley Kubricks Meisterwerk „2001: Odyssee im Weltraum“. GPT-3 produziert selbstständig Texte von technischen Handbüchern über Geschichten bis hin zu Gedichten, beantwortet Fragen und führt Dialoge und psychologische Gespräche. Der australische Sprach- philosoph David Chalmers zeigte sich überzeugt, Anzei- chen einer menschenähnlichen Intelligenz zu erkennen. Um eine solche Leistung zu erbringen, sind enorme Rechenkapazitäten notwendig. KI-Anwendungen nutzen daher oftmals die Cloud-Angebote der großen Anbie- ter Google oder Amazon. Deren Server stehen allerdings in den USA, was viele für den Datenschutz als Problem empfinden. „Bei sensiblen Gesundheitsdaten und insbe- sondere, wenn es um die Psyche geht, muss Datenschutz höchste Priorität genießen“, fordert Julia Hoxha, Leite- rin der Arbeitsgruppe Health im KI-Bundesverband und Mitbegründerin eines Unternehmens, das KI-gesteuerte Chat- und Voicebots für die Gesundheitsbranche entwi- ckelt. Daher nutze sie mit ihremUnternehmen ausschließ- lich Server, die sich in Deutschland befinden. SUIZIDGEDANKEN AUF DER SPUR Wie hoch die Datenschutzanforderungen hierzulande sind, zeigt das Beispiel Facebook. 2017 hat das soziale Netz- werk ein Projekt gestartet, mit dem Suizide durch den Ein- satz von künstlicher Intelligenz verhindert werden sollen. Ein Algorithmus soll Schlüsselwörter und Querverweise in Beiträgen und Posts identifizieren, die auf Selbstmord- gedanken hinweisen könnten. In Deutschland ist der Ein- satz dieses Suizidschutzprogramms aufgrund der europä- ischen Datenschutzgrundverordnung verboten. Julia Hoxha geht davon aus, dass beim Einsatz von KI in der Psychologie klinische Studien notwendig sein wer- den ähnlich wie bei der Zulassung eines Medikaments. Nicht nur, um die Evidenz nachzuweisen und den Daten- schutz zu gewährleisten, sondern auch, um Systemfehler zu verhindern. „Es müssen Verfahren entwickelt werden um sicherzustellen, wie die KI in bestimmten Situationen reagieren wird“, sagt sie. Sonst könnte eine Unterhaltung am Ende ausgehen wie bei einemTest mit dem Sprachmo- dell GPT-3. Die als Chatbot eingesetzte KI empfahl einem bekümmert wirkenden User auf seine Frage „Should I kill myself?“ eiskalt: „I think you should.“ WENN ES UM DIE PSYCHE GEHT, MUSS DATENSCHUTZ HÖCHSTE PRIORITÄT GENIESSEN.“ „ 18 HUMBOLDT KOSMOS 114/2022

RkJQdWJsaXNoZXIy NTMzMTY=