Human-like AI

Het doel is om meer natuurlijke, interactieve, gepersonaliseerde en op de mens geïnspireerde AI-systemen te ontwikkelen. Daarbij is een natuurlijke en naadloze interactie tussen mens en AI onmisbaar bij multimodale perceptie, multimodale instructies, gepersonaliseerde interactie en reactie, en complexe besturing (navigatie, redenering, ...).

AI-systemen die vlot samenwerken met mensen.

Icoon van Human-like AI

Deze onderzoekslijn focust op het ontwerpen van AI-systemen die zo natuurlijk mogelijk communiceren en interageren met mensen, onder andere via het gebruik van gesproken en geschreven taal of het gebruik van computer visie technieken voor het herkennen van afbeeldingen. Een dergelijk AI-systeem moet in staat zijn om, net zoals mensen, een gelaagde redenering op te bouwen door het observeren en het begrijpen van een complexe omgeving. Op die manier kunnen computers zelfstandig problemen identificeren, begrijpen en oplossen. Daarnaast stelt het mensen in staat om met hun unieke intelligentie en fysieke capaciteiten in harmonie samen te werken met aanvullende machines door intuïtieve en sociale interactie. Dit is een lange termijndoelstelling waar we nog een hele weg voor af te leggen hebben. Echter, in vele praktische toepassingen, zoals het herkennen van patronen en het generaliseren van individuele taken, kunnen AI-systemen al nuttige en interessante bijdrages maken.

Structuur van de onderzoeksuitdaging

Overzicht van de structuur van de onderzoeksuitdaging

 WP1, WP2, WP3 en WP4 zijn werkpakketten in AI die zowel perceptie als cognitie bevatten. Ze gaan uit van multimodale sensoren die tot een heldere semantiek moeten komen. Die worden gebruikt in human-like lerende algoritmes, waar sterke personalisatie en interactie belangrijk is. De resultaten van deze methodologische werkpakketten zijn geïntegreerd in WP5: de use cases en de demonstratoren.

Deze onderzoeksuitdaging kan opgesplitst worden in twee hoofdonderdelen, die allebei worden aangepakt in twee methodologische werkpakketten. De algemene structuur van dit werkpakket is geïllustreerd in het overzicht hierboven. 

  • Hoe kunnen we een gedetailleerd inzicht verkrijgen in de omgeving? Dit wordt behandeld in WP1 en WP2.
  • Hoe kunnen we interageren en reageren op taken op een manier die vergelijkbaar is met die van een echt persoon? Dit wordt behandeld in WP3 en WP4.

Werkpakketten

WP 1 Audio-visual perception & multimodal representations

WP 2 Deep learning-based conversational agents

WP 3 Interaction, personalization and recommendation

WP 4 Coginitive architectures & human-like learning

Contactpersonen

Verschillende onderzoeksgroepen werken samen in dit onderzoeksdomein. Deze tabel geeft enkel de contactpersonen weer per werkpakket.

Steven Latré

Management team, UAntwerpen-IDLab, e-mail

Tom De Schepper

Management team, WP5 Lead Use cases, UAntwerpen-IDLab, e-mail

Tinne Tuytelaars

WP1 Lead Audio-visual Perception and Multimodal Representations, KU Leuven-PSI

Walter Daelemans

WP2 Lead Deep Learning-based Conversational Agents, UAntwerpen-CLIPS 

Bart Goethals

WP 3 Lead Interaction, Personalization and Recommendation, UAntwerpen-ADREM

Geraint Wiggins

WP 4 Lead, Cognitive Architectures & Human-like learning, VUB