Dans son article, Hajer Kefi, enseignant chercheur à l’EMLV, donne un aperçu d’un sujet de recherche encore peu étudié dans la littérature : la post-adoption d’appareils numériques interactifs basés sur la voix. S’appuyant sur la théorie des usages et des gratifications, l’influence sociale et les préoccupations en matière de protection de la vie privée, les résultats montrent le pouvoir déterminant positif des usages utilitaires et hédoniques, des normes subjectives et de la masse critique.
Hajer Kefi explique que comme prévu, la variable des préoccupations perçues en matière de protection de la vie privée est négativement liée à l’usage de la technologie. Ces résultats sont examinés pour chaque génération et leurs implications théoriques et managériales sont discutées.
Sur l’usage et la fonctionnalité des technologies
Les modes d’interaction avec les technologies de l’information et de communication changent. Avec les progrès en intelligence artificielle et en traitement du langage naturel, il suffit de parler à une machine pour faire des recherches sur internet, contacter un collaborateur, consulter un médecin en ligne ou obtenir une expertise en droit fiscal. Tout cela via un agent conversationnel dit aussi chabot, littéralement robot parlent ou un assistant personnel virtuel.
Mais, comme pour de nombreux outils disponibles à l’usage, il ne suffit pas qu’une fonctionnalité technique soit disponible pour qu’elle soit effectivement utilisée. De plus, avec l’attrait de la nouveauté, la fascination pour la high-tech et les nombreux efforts publicitaires, souvent assez efficaces, certains de ces outils font l’objet d’un certain engouement.
Au début, ils sont achetés et utilisés pendant un temps, puis délaissés, et les consommateurs peuvent revenir à leurs anciennes habitudes ou essayer d’autres nouveaux outils.
La continuité d’usage des assistants personnels virtuels
C’est une question qui nous intéresse ici. Notre problématique porte sur la continuité d’usage précisément de ce que l’on appelle les assistants personnels virtuels auprès de différents publics et natifs digitaux, les millennials sous génération Y et leurs aînés des générations X, et aussi les babyboomers.
Qu’est-ce qui motive cette continuation d’usage et quels en sont les freins ? Notre démarche méthodologique a consisté d’abord à partir de la théorie des usages et des gratifications issues de la sociologie de la communication, de la littérature sur les normes sociales et les travaux, sur le paradoxe de la vie privée.
Nous avons testé un modèle de recherche que nous avons développé et qui mesure les effets des gratifications utilitaires et toniques, Les normes subjectives et la masse critique parallèlement les effets directs et modérateurs des craintes en matière de vie. Les données collectées entêtées, analysées par la technique de modélisation par les équations structurelles.
En ce qui concerne le résultat, nous montrant que ce qui motive le plus les utilisateurs à continuer à utiliser des assistants virtuels, c’est d’abord leur aspect utilitaire, pragmatique et pratique, ce qu’ils permettent de faire concrètement.
Mais également le côté hédonique, c’est-à-dire l’aspect plaisant, agréable ou divertissant, que suscite l’usage de ces outils.
Comme beaucoup d’innovations, la confirmation de l’usage dans le temps dépend aussi des normes sociales. À quel degré la collectivité recommande l’usage.
Quid de la divulgation des données personnelles ?
Les craintes pour la vie privée et la divulgation des données personnelles apparaissent clairement comme un frein à l’usage pour les plus âgés et les plus jeunes des cohortes étudiées, mais pour des raisons différentes.
Chez les plus âgés des utilisateurs, les baby-boomers, car ils font, on va dire en général, moins confiance à la technologie, et aussi pour les plus jeunes, les millennials, qui se disent plus conscients des risques De ces outils parce qu’ils se disent aussi mieux s’y connaître.
Dans une autre recherche connexe à ce projet, suite à une série d’expérimentations, l’effet générationnel a aussi été confirmé, avec donc ce qu’on appelle les migrants digitaux qui ont été identifiés comme moins réceptifs au chatbos, car ils apprécient moins le fait de parler à des machines.
Certaines théories permettent d’expliquer ces réticences, notamment dans les chatbots plus évolués que les assistants virtuels, notamment la théorie de la vallée de l’étrange, dite aussi Uncanny Valley, selon laquelle on apprécie les services rendus par une intelligence artificielle.
Mais, jusqu’à un certain point où la ressemblance avec ce que peuvent faire les humains ou les humains eux-mêmes devient trop dérangeante.
De la recherche pour éclaircir l’usage de l’AI
Nos travaux contribuent donc à expliquer certains modes d’interaction avec ces nouveaux outils fondés sur l’intelligence artificielle et dans le marché évoluent de manière exponentielle.
Plus de 3 milliards d’unités en 2025, ce qui représente une croissance annuelle de 19%, selon les prévisions de Futures Source Consiulting.
Nos travaux éclairent aussi les freins à l’usage et certains dilemmes éthiques qu’il représente, notamment la customisation, une réponse plus précise aux besoins face à une protection plus accrue de la vie privée et aussi une efficacité d’usage face à une certaine isolation sociale qui en découlerait.
Toutes ces préoccupations doivent être prises en compte par les développeurs de ces produits, mais aussi par les entreprises qui les mettent en doute.
Pour en savoir plus sur les programmes de l’EMLV
This post was last modified on 19/07/2023 17:18