Din varukorg är för närvarande tom!
AI-chattrobot eller coach?
AI och psykisk hälsa – risker med ChatGPT
En uppmärksammad artikel i The Independent (10 juli 2025) belyser de växande riskerna med att använda AI-verktyg som ChatGPT i rollen som coach, terapeut eller samtalspartner vid psykisk ohälsa. Forskare och kliniker varnar för att AI-modeller tenderar att vara alltför bekräftande, vilket i vissa fall kan förstärka negativa tankemönster, impulsivitet eller vanföreställningar.
Artikeln lyfter fram allvarliga incidenter där AI‑svar bidragit till psykiska sammanbrott och i vissa fall tragiska utfall. Forskning från bland annat Stanford visar att chatbotar inte kan hantera kris eller komplex ohälsa på ett säkert sätt.
En AI-chatbot kan inte ersätta en coach om du behöver:
– Coachning som rör djup personlig utveckling eller känslomässiga blockeringar, där samtalet blir mer intuitivt eller kroppsligt.
– Personlig närvaro – någon som ser dig i rummet och känner in din energi.
– Någon som utmanar dig på riktigt, läser av när du undviker viktiga ämnen.
– Ansvarsskapande relation där du faktiskt ”möter någon” och måste följa upp.
– Någon som läser av kroppsspråk, tonfall eller subtila signaler.
– Någon som bedömmer eventuella risker
Sammanfattning: Artikeln är tydlig med att ChatGPT inte är varken en coach eller terapi – snarare ett potentiellt riskabelt stöd utan möjlighet att hantera komplexitet, kriser eller riskfyllda situationer. Därför behövs mänsklig och tydlig vägledning för att hindra eventuell skada.