Hajer Kefi explique que comme prévu, la variable des préoccupations perçues en matière de protection de la vie privée est négativement liée à l’usage de la technologie. Ces résultats sont examinés pour chaque génération et leurs implications théoriques et managériales sont discutées.
Les modes d’interaction avec les technologies de l’information et de communication changent. Avec les progrès en intelligence artificielle et en traitement du langage naturel, il suffit de parler à une machine pour faire des recherches sur internet, contacter un collaborateur, consulter un médecin en ligne ou obtenir une expertise en droit fiscal. Tout cela via un agent conversationnel dit aussi chabot, littéralement robot parlent ou un assistant personnel virtuel.
Mais, comme pour de nombreux outils disponibles à l’usage, il ne suffit pas qu’une fonctionnalité technique soit disponible pour qu’elle soit effectivement utilisée. De plus, avec l’attrait de la nouveauté, la fascination pour la high-tech et les nombreux efforts publicitaires, souvent assez efficaces, certains de ces outils font l’objet d’un certain engouement.
Au début, ils sont achetés et utilisés pendant un temps, puis délaissés, et les consommateurs peuvent revenir à leurs anciennes habitudes ou essayer d’autres nouveaux outils.
C’est une question qui nous intéresse ici. Notre problématique porte sur la continuité d’usage précisément de ce que l’on appelle les assistants personnels virtuels auprès de différents publics et natifs digitaux, les millennials sous génération Y et leurs aînés des générations X, et aussi les babyboomers.
Qu’est-ce qui motive cette continuation d’usage et quels en sont les freins ? Notre démarche méthodologique a consisté d’abord à partir de la théorie des usages et des gratifications issues de la sociologie de la communication, de la littérature sur les normes sociales et les travaux, sur le paradoxe de la vie privée.
Nous avons testé un modèle de recherche que nous avons développé et qui mesure les effets des gratifications utilitaires et toniques, Les normes subjectives et la masse critique parallèlement les effets directs et modérateurs des craintes en matière de vie. Les données collectées entêtées, analysées par la technique de modélisation par les équations structurelles.
En ce qui concerne le résultat, nous montrant que ce qui motive le plus les utilisateurs à continuer à utiliser des assistants virtuels, c’est d’abord leur aspect utilitaire, pragmatique et pratique, ce qu’ils permettent de faire concrètement.
Mais également le côté hédonique, c’est-à-dire l’aspect plaisant, agréable ou divertissant, que suscite l’usage de ces outils.
Comme beaucoup d’innovations, la confirmation de l’usage dans le temps dépend aussi des normes sociales. À quel degré la collectivité recommande l’usage.
Les craintes pour la vie privée et la divulgation des données personnelles apparaissent clairement comme un frein à l’usage pour les plus âgés et les plus jeunes des cohortes étudiées, mais pour des raisons différentes.
Chez les plus âgés des utilisateurs, les baby-boomers, car ils font, on va dire en général, moins confiance à la technologie, et aussi pour les plus jeunes, les millennials, qui se disent plus conscients des risques De ces outils parce qu’ils se disent aussi mieux s’y connaître.
Dans une autre recherche connexe à ce projet, suite à une série d’expérimentations, l’effet générationnel a aussi été confirmé, avec donc ce qu’on appelle les migrants digitaux qui ont été identifiés comme moins réceptifs au chatbos, car ils apprécient moins le fait de parler à des machines.
Certaines théories permettent d’expliquer ces réticences, notamment dans les chatbots plus évolués que les assistants virtuels, notamment la théorie de la vallée de l’étrange, dite aussi Uncanny Valley, selon laquelle on apprécie les services rendus par une intelligence artificielle.
Mais, jusqu’à un certain point où la ressemblance avec ce que peuvent faire les humains ou les humains eux-mêmes devient trop dérangeante.
Nos travaux contribuent donc à expliquer certains modes d’interaction avec ces nouveaux outils fondés sur l’intelligence artificielle et dans le marché évoluent de manière exponentielle.
Plus de 3 milliards d’unités en 2025, ce qui représente une croissance annuelle de 19%, selon les prévisions de Futures Source Consiulting.
Nos travaux éclairent aussi les freins à l’usage et certains dilemmes éthiques qu’il représente, notamment la customisation, une réponse plus précise aux besoins face à une protection plus accrue de la vie privée et aussi une efficacité d’usage face à une certaine isolation sociale qui en découlerait.
Toutes ces préoccupations doivent être prises en compte par les développeurs de ces produits, mais aussi par les entreprises qui les mettent en doute.
Pour en savoir plus sur les programmes de l’EMLV
This post was last modified on 19/07/2023 17:18
En février 2026, plus de 1700 étudiants du Pôle Léonard de Vinci travaillent simultanément sur…
La spécialisation master Digital RH du Programme Grande École de l’EMLV forme des professionnels capables…
Diplômé du Programme Grande École, David évolue depuis plus de vingt ans dans des environnements…
L’EMLV développe ses partenariats académiques en Europe avec l’Università Cattolica del Sacro Cuore à Milan.…
Bertrand Jonquois, responsable de la spécialisation master Digital Marketing & Data Analytics du Programme Grande…
L’EMLV étend son réseau académique en Asie avec la signature d’un accord d’échange avec Thammasat…