Nos interactions avec les outils en ligne et les médias sociaux nous empêtrent dans des systèmes complexes de données massives et de surveillance. Les espaces publics et les interactions sociales nous soumettent de plus en plus à des systèmes d’enregistrement et de reconnaissance faciale.[i] Les espaces privés, de plus en plus intégrés à l’Internet des objets (IdO) via des appareils intelligents[ii] qui ouvrent notre vie domestique à la surveillance. L’ADN et d’autres identifiants biométriques sont déjà utilisés par certains gouvernements, et pourraient un jour être indispensables pour accéder à certains avantages sociaux et économiques.
Ces systèmes contribuent déjà à une meilleure création de sens, mais non sans inconvénients. D’un côté, ils révèlent les dépendances aux écrans et fournissent des informations personnelles sur la santé, suggèrent des émissions de télévision fantastiques et nous aident à trouver l’amour ou des personnes ayant des centres d’intérêt similaires. D’un autre côté, des inquiétudes font surface quant à l’utilisation de données massives pour générer des informations exploitables sur nous. Ces informations sont utilisées pour nous classer dans des groupes[iii] en fonction de nos préférences, nous évaluer selon certains critères,[iv] nous surveiller sur notre lieu de travail,[v] diffuser de la désinformation[vi] et cibler des publicités.[vii]
À l’avenir, ces systèmes pourraient façonner de nombreux aspects de notre vie. Ils pourraient déterminer l’accès à l’éducation, à l’assurance, à l’emploi ou même nos possibilités de rencontres, surtout s’ils incluent des données biologiques comme notre ADN. Ils pourraient également influencer la façon dont les institutions, les entreprises et les autres personnes nous voient et nous traitent. Le renforcement de la surveillance et de la quantification pourrait aider à suivre la propagation des maladies[viii] lors de futures pandémies, à atteindre des objectifs d’équité[ix] ou à soutenir les efforts de durabilité.[x] Par ailleurs, elles pourraient intensifier les fractures sociales en renforçant les bulles de filtres.[xi] Enfin, elles pourraient fournir les matières premières nécessaires à des types de manipulation et de contrôle plus efficaces, comme l’idée de réputation dans le secteur privé, ou des robots conversationnels de marketing qui détectent nos états émotionnels et physiques.
References
[i] Elizabeth Thompson, « Canada planning technological fixes to make crossing the border faster, » CBC, dernière modification le 24 janvier 2022, https://www.cbc.ca/news/politics/border-airports-technology-biometric-1.6323855.
[ii] Dan Greene, « The erosion of personal ownership, » Vox, dernière modification le 21 avril 2021, https://www.vox.com/the-goods/22387601/smart-fridge-car-personal-ownership-internet-things.
[iii] Charlene Chu, Kathleen Leslie, Rune Nyrup, & Shehroz Khan, « Artificial Intelligence can discriminate on the basis of race and gender, and also age, » The Conversation, dernière modification le 18 janvier 2022, https://theconversation.com/artificial-intelligence-can-discriminate-on-the-basis-of-race-and-gender-and-also-age-173617.
[iv] A. Fisher, « An Algorithm May Decide Your Next Pay Raise, » Fortune, dernière modification le 14 juillet 2019, https://fortune.com/2019/07/14/artificial-intelligence-workplace-ibm-annual-review/.
[v] Matthew Finnegan, « Rise in employee monitoring prompts calls for new rules to protect workers, » Computerworld, dernière modification le 30 novembre 2021, https://www.computerworld.com/article/3642712/rise-in-employee-monitoring-prompts-calls-for-new-rules-to-protect-workers.html. Clive Thompson, « What AI exam proctors are really teaching our Children, »Wired, dernière modification le 20 octobre 2020, https://www.wired.com/story/ai-college-exam-proctors-surveillance/.
[vi] « How is Adtech funding misogynistic disinformation? » Global Disinformation Index, dernière modification le 4 janvier 2023, https://www.disinformationindex.org/disinfo-ads/2023-01-04-how-is-ad-tech-funding-misogynistic-disinformation/.
[vii] « ‘Surveillance capitalism’ by tech giants is a growing threat, says privacy watchdog, » Global News, dernière modification le 9 décembre 2021, https://globalnews.ca/news/8436973/privacy-personal-information-surveillance-capitalism-watchdog-report/.
[viii] « BC professor to lead network aimed at helping Canada prepare for future pandemics, » CTV, dernière modification le 12 avril 2021, https://bc.ctvnews.ca/b-c-professor-to-lead-network-aimed-at-helping-canada-prepare-for-future-pandemics-1.5383845.
[ix] K. Hanegan, « How Data Can Supercharge Your DEI Program,” » InformationWeek, dernière modification le 26 décembre 2022, https://www.informationweek.com/big-data/how-data-can-supercharge-your-dei-program.
[x] J. Lou, N. Hultman, A Patwardahan, et Y. Qui, « Integrating sustainability into climate finance by quantifying the co-benefits and market impact of carbon projects, » Communications and Earth Environment 3 (2022) https://www.nature.com/articles/s43247-022-00468-9.
[xi] Une bulle de filtrage est l’état d’isolement intellectuel qui résulte du fait que les algorithmes des moteurs de recherche vous fournissent une gamme étroite d’informations en fonction des données dont ils disposent sur votre localisation, votre historique de recherche et vos clics précédents. « Filter Bubble, » Wikipedia, page consultée le 5 août 2022, https://en.wikipedia.org/wiki/Filter_bubble