Teamwerk met AI vereist afstemming met wetenschappelijke disciplines

In haar oratie op 30 augustus stelt hoogleraar Computational Cognitive Science Marie Šafář Postma de vraag hoe AI en de mens beter op elkaar kunnen afstemmen om samen te werken. AI concurreert op veel vlakken met de menselijke intelligentie en bereikt mogelijk het niveau van zelfbewustzijn. Veel mensen zien dat als een bedreiging. Voor beter teamwerk kunnen computationele cognitieve wetenschap, maar ook de menswetenschappen zoals antropologie, politieke wetenschappen, filosofie, communicatiewetenschappen en recht, meer op AI gerichte vaardigheden ontwikkelen. Dat meldt Tilburg University. 

Computationele cognitieve wetenschap is een vakgebied dat AI combineert met cognitieve wetenschappen om het menselijk denken te modelleren. Deze interdisciplinaire benadering heeft geleid tot aanzienlijke vooruitgangen in het begrip van hersenfuncties en hun impact op menselijk gedrag. Onderzoek aan de Tilburg University verkent bijvoorbeeld hoe AI de analyse van hersengegevens kan verbeteren, met toepassingen in onderwijs, gezondheid en veiligheid.

Complexiteit 

De inaugurele lezing van Šafář Postma benadrukt hoe AI in toenemende mate menselijke capaciteiten versterkt. In vakgebieden zoals radiologie kan AI subtiliteiten detecteren die menselijke cognitie misschien mist, wat leidt tot superieure resultaten wanneer AI en mensen samenwerken. Dit roept echter ethische en juridische vragen op over verantwoordelijkheid in mens-AI teams, vooral in situaties van leven en dood. Šafář Postma gaat in op het concept van bewustzijn en benadrukt de complexiteit en de moeilijkheid om het wetenschappelijk te definiëren. Ze stelt dat bewustzijn misschien geen taal vereist en mogelijk verband houdt met basis biologische functies zoals homeostase. Ze vraagt zich af of AI, uitgerust met interne toestanden en zelfmonitoring, een vorm van bewustzijn zou kunnen ontwikkelen en daarmee ook verantwoordelijkheid voor gevolgen van eigen handelen.

Cognitieve oorlogsvoering 

Šafář Postma bespreekt het gebruik van AI in cognitieve oorlogsvoering, waarbij AI-algoritmen worden toegepast om de publieke opinie te beïnvloeden en democratische structuren te destabiliseren. Door online gedrag te analyseren, kan AI berichten op maat maken die de aandacht trekken en emoties beïnvloeden, zoals te zien was tijdens verkiezingen in verschillende landen. De lezing roept vragen op over hoe AI kan worden gebruikt om te beschermen tegen cognitieve manipulatie en of AI een morele verplichting heeft om de waarheid te spreken.

Drones 

Een ander voorbeeld van interdisciplinaire samenwerking is het door Postma geleide en door NWO gefinancierde onderzoek STEADFAST naar het creëren van teams van mensen en mini drones met de optie om de drones autonoom te laten handelen. De drones opereren in gevaarlijke omstandigheden zoals natuurrampen en oorlogssituaties waar menselijke reacties onvoldoende snel zijn om beslissingen te maken met als doel bijvoorbeeld mens en dier te redden. Onderzocht en ontwikkeld vanuit menswetenschap wordt onder meer hoe de operator reageert in stresssituaties, hoe de beslissingen worden genomen en wie daarbij de juridische eindverantwoordelijkheid heeft.

Postma stelt dat de belangrijkste waarde van AI-onderzoek erin schuilt dat het ons een dieper begrip biedt van wie we zijn, voorbij de beperkingen die ons menselijk brein ons biedt. Het brengt risico's met zich mee, maar biedt ook de mogelijkheid te communiceren met wat anders ontoegankelijk zou blijven.

Door: Nationale Onderwijsgids