L’intelligence artificielle devrait-elle décrypter nos émotions ?

smiley-faces

Il semblerait que l’intelligence artificielle fasse beaucoup débat sans qu’il soit nécessaire d’ajouter une nouvelle charge émotionnelle. Précisément, l’émotion fait beaucoup parler d’elle au sein de la communauté IA, en proie à de sentiments contradictoires, comme le fut Mr Spock.

Il existe beaucoup de peurs concernant l’intelligence artificielle. Aussi contre-intuitif que cela puisse paraître, aucun pionnier de cette technologie comme Elon Musk ne croit que les robots et l’intelligence artificielle pourraient menacer l’humanité. Et je suppose qu’ils se réjouiraient d’y ajouter des sentiments artificiels.

Voyons donc là une épée à double tranchant. Doit-on privilégier une IA sans émotion pour certaines choses nécessitant une pensée complètement indépendante ou bien intégrer cette dimension pour y améliorer la prise de décision ? Tout dépend du cas en question je pense.

En tant que personne professionnellement obnubilée par la neuroscience du consommateur, je dois admettre qu’imaginer un algorithme incluant des paramètres relatifs aux émotions pour mes scénarii marketing attise beaucoup ma curiosité. J’imagine des actions marketing contenant des données démographiques et psychographiques du public cible et laisserais le soin au système de vérifier mon travail en fonction de l’audience préalablement sélectionnée.

En fait, ce pas une pensée si futuriste. J’ai collaboré avec une entreprise appelée Centiment qui analyse les contenus et fournit un rapport sur l’émotion qui s’y trouve. On peut y trouver la peur, l’incertitude ou le doute. Un des aspects les plus fascinants de l’algorithme est qu’il permettra d’identifier les modèles émotionnels qui pourraient même ne pas être liés à une émotion connue …. Comme un sentiment encore à définir, mais néanmoins intégré dans le contenu. Je la définirais comme la 5ème saveur (Umami). Bien plus qu’une saveur déterminée, il s’agit d’une saveur subtile.

Pour aller plus loin, comment les entreprises peuvent-elles mettre en place quelque chose d’aussi disparate que la culture à l’échelle internationale ?

Tout étudiant en anthropologie culturelle sait que l’émotion peut se manifester de manière différente d’une culture à l’autre. Par exemple, certaines cultures asiatiques sont beaucoup plus enclines à montrer les sentiments de honte, d’humilité et d’harmonie que l’on ne retrouve pas au même degré en Occident. Inutile de dire qu’un système d’IA (occidental) ciblant un marché comme l’Asie biaiserait fortement les résultats.

Mais que se passe-t-il lorsqu’un seul et même système est déployé dans un environnement culturellement diversifié, comme celui d’un prestataire de soins de santé interurbain ? Adapter l’intelligence artificielle à ces populations sans ajouter le paramètre émotion est déjà assez difficile ; être capable de déterminer dans quelle mesure la culture a un impact (ou non) sur les comportements des consommateurs est un défi incroyable.

L’un des plus gros reproches formulés vis-à-vis des produits informatiques cognitifs est qu’ils utilisent des échantillons et des cas d’utilisation beaucoup trop petits ou isolés pour rendre l’analyse prédictive possible. Considérons les variations de l’émotion chez une seule personne en fonction de la situation – travail, famille, saison, santé, amis – force de est de conclure à quel point l’intelligence artificielle émotionnelle doit impérativement devenir une technologie fiable.

Auteur : Frank Cutitta

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: