Le problème : l’intersection de nouvelles technologies, de conditions sociales changeantes et de croyances évolutives pourrait affecter notre capacité à nous comprendre et à nous faire confiance et, par conséquent, notre capacité à coopérer à grande échelle.
À mesure que des forces telles que les réseaux sociaux, les théories du complot, la désinformation et la nostalgie favorisent la croissance de communautés distinctes ayant des façons contradictoires de comprendre le monde, il peut devenir plus difficile d’établir un large consensus social ou de prendre des mesures collectives.
Il pourrait être plus difficile de se mettre d’accord sur des faits fondamentaux concernant l’économie, la politique, l’histoire ou l’environnement si la société se fragmente en groupes insulaires dont les visions du monde sont difficilement compatibles. Dans un tel avenir, un débat productif sur les grandes questions humaines pourrait diminuer. Cela peut être dû au fait que ces groupes se retranchent dans des chambres d’écho sur des plateformes numériques distinctes et se rencontrent rarement, ou parce que leurs visions du monde sont si éloignées qu’il n’existe aucun point de départ pour la conversation. Une fragmentation extrême peut rendre presque impossible l’élaboration de politiques, de programmes et de messages qui satisfassent une majorité de personnes. De même, l’établissement d’un consensus sur les priorités nationales pourrait s’avérer beaucoup plus difficile qu’aujourd’hui, et la mobilisation de la société vers un quelconque objectif commun encore moins probable.
Les technologies qui permettent de décoder nos émotions et nos pensées pourraient simplifier les relations sociales ou, à l’inverse, les rendre infiniment plus compliquées.
Des quantités massives de nouvelles données nous concernant seront mises en ligne au fur et à mesure que l’IdO se développera, connectant les systèmes numériques plus étroitement à nos corps via des capsules intelligentes à avaler et des technologies prêt-à-porter. Ces données pourraient fournir des informations en temps réel sur le comportement de notre entourage. Ainsi, l’attitude colérique d’une collègue de travail pourrait se révéler être un signe d’épuisement dû à une insomnie. Les mauvaises performances professionnelles d’un employé pourraient être dues à des stimuli excessifs dans son environnement plutôt qu’à de la paresse. Un tel aperçu pourrait faciliter les relations sociales. Il pourrait même nous permettre d’anticiper la façon dont nos actions pourraient nuire aux autres et de modifier notre comportement en conséquence. Une intelligence sociale pourrait favoriser la compréhension et la confiance mutuelles, ce qui pourrait contribuer à renforcer la société civile et les institutions démocratiques. D’un autre côté, savoir que nos pensées et sentiments sont constamment exposés aux autres pourrait accroître certains types d’anxiété. Si les rencontres avec d’autres personnes, sociétés ou institutions devenaient profondément inconfortables, cela pourrait entraîner un déclin de la confiance envers la société et les institutions.
À mesure que l’intelligence artificielle intervient dans nos prises de décision, elle pourrait donner le ton des relations sociales selon qu’elles privilégient les avantages collectifs ou individuels.
Des assistants d’IA plus puissants pourraient donner aux utilisateurs des pouvoirs de recherche et de traitement de l’information fortement accrus qui amélioreraient leur prise de décision. L’impact social de ces changements pourrait dépendre du fait que nos assistants d’IA donnent la priorité aux décisions qui profitent à l’individu, à la société ou à un compromis entre les deux. L’intelligence artificielle optimisée pour le bien social pourrait favoriser la civilité, la philanthropie, l’engagement démocratique, la tolérance et le soutien aux politiques fondées sur des preuves. À l’inverse, les systèmes configurés pour maximiser les avantages pour l’individu pourraient produire des résultats négatifs pour la société dans son ensemble. Les assistants calibrés pour améliorer le statut social à tout prix pourraient recommander des actions qui nuisent aux autres. L’intelligence artificielle configurée pour maintenir notre bonne humeur pourrait nous détourner d’informations alarmantes, sur le changement climatique par exemple, et nous orienter vers une désinformation qui atténue nos craintes d’une catastrophe environnementale. En définitive, l’orientation de ces changements dépendra des priorités de des concepteurs de l’IA, des forces du marché et des réglementations.
À mesure que le rôle des technologies numériques dans la création de sens augmente, elles pourraient contribuer à harmoniser les diverses visions du monde, ce qui permettrait aux gens de se mettre plus facilement d’accord sur les priorités, ou au contraire creuser le fossé entre visions du monde concurrentes.
Les technologies qui nous aident à donner un sens aux choses auront des caractéristiques et des règles distinctes qui influenceront notre compréhension du monde. En ce sens, elles pourraient devenir les prismes à travers lesquels nous percevons la réalité. Les algorithmes de recherche orientent et individualisent déjà les informations que nous utilisons pour prendre des décisions. Si les technologies de création de sens les plus populaires partagent à l’avenir suffisamment de caractéristiques et de règles pour offrir une manière cohérente d’interpréter le monde, elles pourraient favoriser un nouveau sentiment de réalité partagée. Il serait alors beaucoup plus facile pour les gens de se parler et de se comprendre, et donc de parvenir à un consensus. Mais rien ne garantit que ces technologies seront suffisamment cohérentes pour promouvoir un quelconque terrain d’entente qui reflète des valeurs communes telles que le multiculturalisme. Elles peuvent en fait favoriser la diffusion de visions du monde contradictoires qui engendrent l’incompréhension, la méfiance et l’intolérance.