SEMINARIUM. Här följer en överblick från seminariet ”Artificial intelligence, research and ethics: an incompatible triad?” som gavs i fysisk och streamad form måndag 18 september. Seminariet ingår i serien ”Forskningsetik – öppet fakultetsmöte”, och arrangerades av Rådet för forskningsetik och Avdelningen för forskningsstöd.
- Till och med tisdag 17 oktober kan du också se en film från seminariet i efterhand, via den här länken: https://play.gu.se/media/Artificial+intelligence%2Cresearch+and+ethicsA+an+incompatible+triadF/0_prywaqtv?st=320
- Här kan du se presentationerna från seminariet: https://guse.sharefile.eu/d-s2ef8369c338f4acbaaf966f2d3ec5e09
Dekan Agneta Holmäng inledde med att konstatera att den snabba utvecklingen inom artificiell intelligens öppnat många nya möjligheter; från att förenkla mänskliga kontakter genom sociala medier till att underlätta vårddiagnoser och skapa arbetseffektivitet genom automatiserade uppgifter.
– Den snabba utvecklingen väcker också praktiska etiska frågor kring de konsekvenser som AI för med sig och andra effekter som diskuteras av forskare världen över, sade Agneta Holmäng.
Moderator under seminariet var Jaquette Liljencrantz, disputerad inom anestesiologi och intensivvård och adjungerad universitetslektor på Institutionen för kliniska vetenskaper.
Accelererande utveckling
Först ut att ge sin presentation var Olle Häggström, professor, Tillämpad matematik och statistik, Matematiska vetenskaper, Chalmers tekniska högskola. Han betonade hur extremt snabbt utvecklingen inom AI går just nu. Som ett exempel på hur han själv märkt av denna utveckling nämnde han sin bok ”Tänkande maskiner: Den artificiella intelligensens genombrott”. Redan något år efter att boken kommit ut 2021 började han tveka inför om han borde rekommendera boken för undervisning, eftersom den i vissa delar inte längre var aktuell. En uppdaterad andra upplaga kommer dock inom kort.
Ett annat exempel är AI-forskaren Ajeya Cotra som i en artikel 2020 beräknade att AI skulle vara mer intelligent än mänskligheten trettio år senare – år 2050. Bara två år senare fick hon kraftigt revidera sin slutsats – 2022 beräknades denna brytpunkt inträffa omkring 2030 istället.
– De beräknade riskerna med AI, både i det längre och i det kortare perspektivet, tycks bli allt mer missvisande. Den kritiska punkten skulle nu kunna ligga bara några år in i framtiden, kanske redan det här årtiondet, sade Olle Häggström.
Han lyfte också fram ChatGPT4, som efter dess lansering i mars 2023 överrumplat många med sina enastående förmågor.
Oroade forskare
Många AI-forskare har tagits på sängen av den oerhört snabba utvecklingen. I våras undertecknades ett öppet brev av över tusen namnkunniga forskare och entreprenörer inom datavetenskap och AI, däribland Olle Häggström. Brevet varnade för att mänskligheten riskerar att tappa kontrollen. Forskarna manade till inbromsning för att samhället ska hinna analysera konsekvenserna av AI:s snabba och breda införande. Brevet fick stor uppmärksamhet, och citerades bland annat av Ursula von der Leyen under hennes öppningsanförande till Europeiska kommissionen i början av september, berättade Olle Häggström.
– Om beslutsfattare ska hinna med att AI-anpassa lagstiftning behöver utvecklingen bromsas. Här finns naturligtvis starka marknadskrafter som driver på, och det är inte lätt att dra i nödbromsen, men vi borde iallafall försöka, sade Olle Häggström.
AI kräver eftertanke
Nästa talare, Justin Schneiderman, är universitetslektor i experimentell multimodal neuroavbildning och även utsedd att vara rådgivare till fakulteten i AI-frågor. Han fokuserade mer på de möjligheter som AI kan väcka inom Sahlgrenska akademins forskningsfält.
När det gäller ChatGPT sade Justin Schneiderman att det kan vara ett verktyg som kan underlätta flera aspekter av forskares arbete, bland annat när det gäller arbete med litteraturöversikter eller summering längre resonemang i form av kärnbudskap i punktform. Men den som använder ChatGPT måste ha en etisk eftertanke och vara medveten om vilken typ av texter och data som matas in i verktyget. Det går inte att bortse från risken att allt sparas av Open AI (företaget bakom ChatGPT) och kan komma att få annan spridning och användning.
Forskningsfinansiär tar fram policy
Forskningsansökningar är ett annat möjligt användningsområde för ChatGPT och andra AI-verktyg. Inom kort kommer forskningsfinansiärerna sannolikt ha policys på plats för hur de ser på denna användning. Som exempel lyfte Justin Stiftelsen för strategisk forskning (SSF) som helt nyligen publicerade sina funderingar kring AI inom forskningsberedning i form av en ledare på sin hemsida. SSF öppnar för inspel från alla intresserade i arbetet med denna policy.
Även inom lagstiftning pågår arbete inom AI, där bland annat en ny ”AI Act” finns föreslagen och nu processas inom EU.
Bildanalys förutsäger hjärtkärlsjukdom
Justin Schneiderman lyfte också två aktuella AI-modeller som tränats med maskininlärning som kan få stor betydelse för forskning inom Sahlgrenska akademins fält, och i förlängningen för vården.
Det första exemplet var ARDA (Automated Retinal Disease Assessment), där algoritmer tränats på 284 335 patienter. Baserat på bilder näthinnan i ögat kan detta AI-verktyg nu med 70 procents säkerhet kan förutsäga händelser som hjärtinfarkt och andra händelser relaterade till hjärtkärlsjukdom.
Det andra exemplet han tog upp kallas AlphaFold, ett AI-program som kan förutsäga proteiners struktur. Programmet har tränats på över 144 000 modeller över proteinstrukturer, och har flera gånger visat sig vara överlägset i den årliga tävlingen Critical Assessment of Techniques for Protein Structure Prediction (CASP).
Forskarutbildningskurs till våren
Ett mer lokalt exempel där AI kan ge nya möjligheter för forskningen är det omfattande projektet SCAPIS, som finansieras av Hjärtlungfonden och leds från Göteborg. Inom SCAPIS kan enorma mängder data (avbildning, men också annan data) om över 30 000 personer analyseras och ge nya insikter. Justin Schneidermans egen forskning, där han analyserar bilder av hjärnan tagna med tekniken MEG, genererar enorma mängder data för varje forskningsperson, där han har förhoppning om att AI kan underlätta arbetet med att se mönster och samband i datan.
Justin Schneiderman pekade också på några utmaningar som försvårar implementeringen av AI inom vård och omsorg:
– Det finns just nu en stor hype runt AI, där många är intresserade av att applicera metoderna på sina problem. Men om AI ska leda till riktig klinisk nytta för patienter behöver många implementeringsutmaningar lösas, och där saknas idag medel för genomförande, sade Justin Schneiderman, som också lyfte fram reproducerbarhet som ett problem för forskning baserad på AI.
Till våren lanserar Sahlgrenska akademin en ny valbar forskarutbildningskurs inom AI. Sök senast den 21 oktober: https://fubasextern.gu.se/fubasextern/info?kurs=SK00037
AV: ELIN LINDSTRÖM