Kommer AI att bli en del av äldreomsorgen?

CASE-dagen i Lund den 16 april 2026 innehöll ett flertal intressanta presentationer. (Länktips till programmet se nedan). I en annan bloggtext nämnde jag frågan om den demografiska utveckling vi står inför. En annan mycket intressant och relevant presentation handlade om hur AI kan komma att användas exempelvis inom äldreomsorgen.

William Son Galanza

Mellan två och sjutton sensorer
William Son Galanza presenterade sin forskning kring AI och inledde med att ställa den retoriska frågan om AI förstår vad en person gör. Kan det vara så att AI i själva verket är bättre än människor på att identifiera och varna för problem som kan kopplas till hur en person beter sig? Forskarna testar för fullt med sensorer för att identifiera och lära sig känna igen rörelsemönster. Man har använt upp till 17 sensorer på en person för att bygga upp databaser kring vad som är återkommande beteenden och rörelsemönster. Man har även testat med enbart två sensorer (vid höft och på handled). Det tar betydligt längre tid att kartlägga beteenden och rörelsemönster med enbart två sensorer, fick vi veta.

Databas med typiska rörelsemönster som bas
För tillfället har man nått cirka 89 procents noggrannhet, dvs att AI-systemet känner igen ett visst beteende med 89 procents träffsäkerhet. De beteenden man försöker kategorisera på detta sätt handlar om att läsa tidningen, se på TV, vila, gå på toaletten osv. När man byggt upp en databas per testperson kan det så småningom bli tal om att etablera diagnosmodeller, dvs parametrar som ska användas för att indikera avvikelser från normalbeteendet. Och syftet är naturligtvis att tidigt kunna indikera att personen avviker från sitt normala beteende och kanske visar symptom på någon störning, som behöver åtgärdas.

Vilka naturliga variationer är rimliga?
Presentationen var kort eftersom dagen var späckad med olika inspel, men en fråga som inte blev riktigt besvarad var naturligtvis hur stor naturlig tolerans man arbetar med för att kalla ett rörelsemönster för normalt och inte avvikande. Det är ju trots allt människor det handlar om, människor som inte är maskiner, som kan bete sig lite olika beroende på om man ser en fotbollsmatch på TV och lever sig in i det hela, eller tittar på vädret. Dvs hur tänker man egentligen kring de naturliga variationer som alltid kommer att finnas?

Elva procents fel i utgångsläget låter inte bra
Och tycker man verkligen att 89 procent träffsäkerhet räcker? Måste man inte ha 98 eller 99 procent som utgångspunkt för att med säkerhet slå fast att en avvikelse inträffat? Om AI-övervakningen sätts in där det handlar om liv eller död och där tidsfaktorn är avgörande för en eventuell åtgärd känns det lite svajigt att ha så mycket som elva procents fel redan i utgångsläget. Det låter som att man har långt kvar. Det nämndes heller inte under den korta presentationen om man tänker sig en kombination av aktiva och passiva indikatorer, dvs att personen i fråga också själv kommer att vara aktiv, trycka på någon knapp, tala till en mikrofon eller på annat sätt bevisa sitt allmäntillstånd. En kombination av olika analysmetoder torde ju öka träffsäkerheten avsevärt. För att inte tala om värdet av att ha en granne som tittar in lite då och då.

Var ligger förtjänsten och för vem?
Och det finns alltid en ekonomisk sida av all teknik. Vem ska egentligen betala och vem ska tjäna pengar på de lösningar som till slut införs? Och hur ser alternativkostnaden eller alternativförtjänsten ut? Det finns en hel del frågor kvar att lösa. Och mest grundläggande är ändå att vi människor inte får ses som objekt, som maskiner som alltid beter oss på likartat sätt. Den utvecklingen känner jag obehag inför.

Länktips: https://www.case.lu.se/casedagen