Betrouwbare AI als basis voor optimale samenwerking tussen mens en machine

DON 12:10 - 12:40

Lezingenzaal 3

Data analytics en artificial intelligence (AI) worden al geruime tijd voor beslissingsondersteuning ingezet. Door toenemende complexiteit van AI komt er meer aandacht voor de uitlegbaarheid van AI: de mens wil wel graag weten waaróm de computer een voorstel doet. Ook is bias belangrijk om rekening mee te houden: data kan eenzijdig zijn en daarmee kan de AI een scheef wereldbeeld hebben. Hoe voorkom je dat? En hoe leg je dat uit? En belangrijker nog: hoe kun je vaststellen of de gebruiker de uitleg ook begrepen heeft? Zou het dan ook mogelijk zijn dat de computer dáár dan weer van leert en de volgende keer een uitleg geeft die nog beter begrepen wordt? Of kom je dan in een cirkelredenering terecht?

Door resultaten van recent onderzoek bij elkaar te brengen heeft TNO een systeem ontworpen dat ‘co-learning’ kan doen: mensen leren van machines en vice versa. Het doel van het systeem is om optimale beslissingsondersteuning in een veranderende wereld te realiseren. Eén van de casussen is lifestyle advies voor diabetes-type 2 patiënten. Daarbij is onder andere gepersonaliseerde uitleg van de adviezen nodig, maar ook het detecteren van bias in data, het veilig kunnen trainen op medische (dus gevoelige) data, het modelleren en gebruiken van bestaande kennis in combinatie met datagedreven leren, en nog veel meer.

In de presentatie wordt een overzicht van deze kennisgebieden gegeven, en hoe dit bij elkaar komt in een systeem dat betrouwbare AI inzet voor optimale samenwerking tussen mens en machine.