Interaction dialogique émotionnellement enrichie

Responsable : J. Ginzburg.
Participants : A. Abeillé, J. Ginzburg,Y. Tian.
Doctorants : C. Mazzocconi, L. Zaradski
Collaborations : E. Breitholz (Gothenburg), R. Cooper (Gothenburg), D. Schlangen (Bielefeld), C. Pélachaud (UPMC), DongHong Ji (Wuhan), S. Scott (London). 

Cette opération est liée à l’opérations DIA (Axe 2, LabEx), Ola14 (Laughter in the Lifespan), et le projet Facial Displays in Dialogical Interaction (FADS) (sous revue par l’ANR-DFG)

Cette opération comporte trois volets :

  1. Développement d’un système formel qui peut capter la relation entre des formes verbales et les signes sociaux non-verbaux (SSNV, tels que le rire, le sourire, le froncement de sourcils) dans l’interaction dialogique et aussi l’interaction verbale/emoji dans les chats des réseaux sociaux.
  2. Approche empirique sur les emplois des SSNV et les emojis en utilisant des corpus, des expériences et des méthodes neurolinguistiques. On va développer une taxonomie détaillée de ces emplois (basée principalement sur la contribution à la composition du contenu), et on va étudier le positionnement relatif de SSNV/emoji et cible (le laughable etc), les corrélations de forme/fonction en  utilisant   des données interlinguistiques (français, chinois, anglais,…).
  3. Musique: développement d’un modèle du contenu dans les interactions musicales (par ex., les quatuors à cordes), en s'appuyant sur une théorie de la dynamique des états cognitifs dans ces interactions. Un enjeu significatif est d'essayer d'utiliser les mêmes moyens théoriques que pour la théorie d'interaction dialogique du volet 1 (par ex., en ce qui concerne la notion de contenu émotionel).