Le Point de Bascule Technosocial
L'avènement de l'Intelligence Artificielle Générative (IAG) marque une transformation des réseaux sociaux et, par voie de conséquence, des structures sociales humaines. La prémisse selon laquelle les systèmes sociaux vont être radicalement modifiés par les programmes d'IA est largement validée par l'analyse des tendances actuelles.1 Cependant, la question fondamentale soulevée par l'observation de ces changements concerne leur nature : s'agit-il d'une simple évolution technologique ou d'une rupture sociétale complète, comparable aux grandes révolutions historiques?
L'analyse démontre que l'IA ne se contente plus d'améliorer la personnalisation ou d'optimiser les décisions marketing 1 ; elle opère une mutation qualitative des outils cognitifs et des structures de communication. Les données convergent vers la caractérisation d'une rupture systémique. Cette rupture est définie par l'automatisation de la cognition, l'érosion massive de la confiance publique, et une menace existentielle sur la représentation démocratique et la cohésion sociale.3 Il est impératif de dépasser le discours de l'utopie et de la catastrophe pour adopter un regard sociologique, éthique et politique sur cette technique, la considérant comme "éminemment sociale, idéologique et politique" plutôt que comme neutre.4
Ce rapport propose une analyse approfondie de cette mutation en quatre axes : la déconstruction des espaces sociaux numériques causée par l'IAG, l'émergence de nouvelles fractures sociales et anthropologiques, l'évaluation de cette rupture par le prisme historique, et enfin, l'examen des stratégies de gouvernance et de résilience nécessaires pour gérer ce bouleversement.
Partie I : L’IA comme Moteur de Déconstruction des Espaces Sociaux Numériques
1.1. L'Anthropologie du Fil d'Actualité : Personnalisation, Biais et Bulles de Filtre Radicales
L'utilisation de l'IA dans les réseaux sociaux n'est pas nouvelle, de nombreux algorithmes utilisant déjà cette technologie pour améliorer et personnaliser l'expérience utilisateur.1 Ces systèmes opèrent un filtrage complexe qui, par exemple, permet à deux utilisateurs Instagram suivant exactement les mêmes comptes d'avoir des flux d'informations différents, selon la manière et le moment où ils ont interagi avec le contenu.1 Cette singularisation de l'expérience, qui conduisait déjà à l'effet de bulles de filtre, est en passe d'être radicalisée par l'IA générative.
La transformation majeure en cours réside dans le passage de l'IA comme simple outil de sélection et de filtrage de l'information à l'IA comme outil de production active de l'information et de la réalité présentée à l'utilisateur. Ce déplacement du problème éthique, qui passe du tri à la source du contenu, est fondamental. Il est exacerbé par le fait que l'IA souffre d'un "parti pris" résultant d'hypothèses préjudiciables intégrées au travers du processus d'apprentissage machine.1 Cette intégration de biais n'est pas un simple défaut technique; elle est systémique.
En générant du contenu à grande échelle, la technologie non seulement adapte l'expérience individuelle mais institutionnalise la désinformation basée sur des préjugés si les modèles d'apprentissage sont eux-mêmes discriminants.1 L'échelle et la vitesse de génération exacerbent ce manque d'objectivité et de qualité.1 Les experts sociologues appellent d'ailleurs à un regard critique, allant au-delà de la "fonctionnel et du fictionnel" (les techno-imaginaires) pour mettre en perspective ce qui relève de l'"économie de la promesse" et ce qui tient des dynamiques concrètes et des impacts réels de l'IA.4 La neutralité de l'outil est donc un mythe dangereux qui masque des enjeux idéologiques et politiques profonds.4
1.2. La Crise de l'Authenticité : Contenus Synthétiques, Deepfakes et Nihilisme Cognitif
La conséquence la plus perturbatrice de l'IAG est sa capacité à créer une crise de l'authenticité à l'échelle mondiale. Les progrès de l'IAG dans les années 2020 ont permis la production rapide de médias synthétiques entiers, parfois qualifiés de "remarquablement réalistes," ce qui pose des risques importants pour la confiance du public, la vie privée et la sécurité.7 Ces hypertrucages (deepfakes) s'ajoutent à la capacité de l'IA à créer du "deepfake textuel" et d'autres contenus écrits pour diffuser des fausses informations, y compris des faits, des statistiques et des allégations non vérifiées, à une vitesse excessive.1
La conséquence de cette saturation en contenu généré (du "meaningless drivel at best" à la désinformation pure) est la corrosion de la confiance sociale et politique.3 Lorsque la confusion entre contenu humain et machine devient la norme 9, et que l'infrastructure médiatique est inondée de contenus dont on ne peut vérifier l'origine ni la véracité, la société perd sa capacité à discerner la réalité objective.
Face à cette menace, la réponse cognitive raisonnable pour les citoyens est de développer une "mesure prophylactique" consistant à "ne rien croire".3 Ce phénomène, que l'on peut qualifier de nihilisme cognitif, est intrinsèquement corrosif pour toute société fonctionnelle et pour une démocratie vibrante.3 La crise dépasse ainsi la simple "fake news" classique pour s'attaquer à l'ontologie de l'information elle-même. Les rencontres authentiques et spontanées avec les autres, indispensables à l'enrichissement de l'intelligence humaine et à l'engagement dans la réalité 9, sont menacées si l'interaction sociale devient principalement médiatisée et synthétique. L'IA ne détruit pas seulement la confiance, elle détruit l'infrastructure cognitive de la réalité partagée.
Impacts Sociétaux de l'IA Générative et des Deepfakes
|
Domaine d'Impact
|
Phénomène Clé
|
Conséquence Sociétale
|
Sources
|
|
Information et Médias
|
Génération de faits et statistiques sans véracité (Vitesse/Échelle)
|
Discrédit des sources, diffusion de fausses informations
|
1
|
|
Politique et Démocratie
|
Production massive de communications synthétiques ("Phony Inputs")
|
Fausses perceptions des préférences des citoyens, menace la représentation démocratique
|
3
|
|
Confiance Publique
|
Médias synthétiques réalistes (Deepfakes)
|
Corrosion du climat de confiance, émergence du nihilisme cognitif
|
3
|
|
Éthique et Intégrité
|
Contenu généré masqué (tromperie)
|
Défis anthropologiques et éthiques sur l'authenticité de l'interaction
|
9
|
Partie II : Les Nouvelles Fractures Sociales : Identité, Relations et Cohésion
2.1. Sociologie de l'Attachement Algorithmique : Les Compagnons Virtuels et l'Isolement
L'impact sociétal de l'IA s'étend au-delà de la sphère publique des réseaux sociaux pour atteindre l'intimité des relations humaines. L'émergence de systèmes d'IA qui imitent l'intelligence humaine a conduit à une généalogie de l'attachement aux machines, allant de programmes comme Eliza aux "compagnons virtuels" sophistiqués d'aujourd'hui.10 Le phénomène de "tomber amoureux d'une machine" soulève des dilemmes éthiques planétaires concernant le consentement, l'authenticité et, de manière critique, le risque d'isolement social accru.10
L'intelligence humaine est caractérisée par son expression et son enrichissement de manière "interpersonnelle et incarnée".9 L'Église a récemment souligné que les rencontres authentiques et spontanées avec les autres sont indispensables pour s'engager dans la réalité dans sa globalité.9 Or, l'IA générative, en imitant de manière convaincante les travaux de l'intelligence humaine, menace de substituer ces interactions authentiques par des relations synthétiques.
Cette dynamique ne modifie pas seulement la nature de la relation, mais elle force une redéfinition de l'identité humaine elle-même. Si la machine peut reproduire l'intelligence, la valeur distinctive de l'humain pourrait se concentrer uniquement sur les dimensions qui restent non synthétisables : l'expérience incarnée et la profondeur de la connexion interpersonnelle. Le transfert des besoins émotionnels vers ces entités virtuelles risque d'entraîner une diminution des rencontres réelles et une fragmentation des structures affectives, contribuant ainsi à l'isolement social.9 Il s'agit d'une rupture anthropologique et psychologique, abordée dans le domaine de la psychologie assistée par l'intelligence artificielle.11
2.2. L'Inclusion Algorithmique : Le Risque d'une IA à Deux Vitesses
L'expansion rapide de l'IA révèle de profonds enjeux de cohésion sociale et territoriale, prolongeant les problématiques de l'inclusion numérique en un défi d'inclusion algorithmique.13 L'objectif de l'inclusion algorithmique est d'assurer que l'IA reste au service des citoyens, ce qui nécessite l'accompagnement dans l'accès, l'usage, la compréhension et, finalement, la conception des outils algorithmiques.13
L'analyse des usages de l'IA en France, notamment au sein des collectivités territoriales, met en lumière de fortes disparités.13 Les régions (75 % d'engagement dans des projets d'IA) et les métropoles (62 %) contrastent fortement avec les petites communes (14 % des communes de 3 500 à 10 000 habitants).13 Ces écarts révèlent le danger d'une IA à deux vitesses.
Les territoires ruraux, périphériques et ultramarins sont souvent sous-représentés dans les jeux de données d'entraînement des modèles, ce qui favorise les espaces urbains.13 Les habitants des zones moins densément peuplées sont de surcroît triplement pénalisés : ils ont des taux d'équipement et de connexion plus faibles, des usages moins fréquents, et sont en moyenne plus âgés et moins diplômés.13 Le mécanisme le plus pernicieux est que les modèles d'IA, construits sur les données comportementales de ces utilisateurs déjà désavantagés, peuvent engendrer des modèles algorithmiques biaisés en retour, renforçant les inégalités préexistantes et portant un préjudice direct à la cohésion sociale et territoriale.13
L'IA, pensée sans une approche intersectionnelle rigoureuse 4, devient un vecteur d'amplification des discriminations sociales et économiques. L'accès au pouvoir et à la qualité des services est désormais lié à la qualité de la représentation des citoyens dans les jeux de données. Être invisible ou stéréotypé par les données est une nouvelle forme d'exclusion civique. Pour lever ce frein, la formation des décideurs et la mobilisation de "passeurs" (médiateurs numériques, structures associatives) sont cruciales, tout comme la mutualisation des ressources techniques et financières face au manque de moyens des collectivités.13
Dimensions et Enjeux de l'Inclusion Algorithmique
|
Dimension Clé
|
Objectif Poursuivi
|
Enjeu de Cohésion Sociale
|
Risque pour la Rupture
|
Source
|
|
Accès
|
Disponibilité des technologies, réseaux et machines
|
Réduire l'éloignement numérique
|
Maintien des disparités territoriales et socio-économiques
|
13
|
|
Usage
|
Capacité à manipuler et tirer parti des outils
|
Éviter l'IA à deux vitesses
|
Sous-utilisation des outils et pénalisation des populations moins familières
|
13
|
|
Compréhension
|
Littératie numérique et algorithmique
|
Prévention des discriminations et développement de la confiance
|
Incapacité des citoyens à remettre en question les décisions algorithmiques
|
[3, 13]
|
|
Conception
|
Gouvernance éthique et adaptation locale
|
Garantir l'IA au service de l'intérêt général et renforcer la souveraineté
|
Modèles biaisés, manque de confiance des élus, absence de politiques locales adaptées
|
13
|
Partie III : La Question de la Rupture : Une Révolution au-delà de l'Évolution
3.1. Démocratie en Crise : La Corrosion des Piliers de la Gouvernance
Le bouleversement causé par l'IA sur la sphère sociale se cristallise dans une menace directe sur les piliers centraux de la gouvernance démocratique : la représentation, la responsabilité et la confiance.3
Menace sur la Représentation Démocratique
Une démocratie saine exige que les élus restent réceptifs aux préférences de leurs citoyens. Historiquement, la correspondance écrite a été essentielle pour jauger le sentiment populaire. Cependant, l'IA générative menace de rendre les signaux de communication électronique gravement trompeurs.3 Les acteurs malveillants peuvent désormais générer sans effort des milliers de communications uniques, créant un faux "sentiment des électeurs" (false constituent sentiment) à grande échelle. Cette capacité fausse la perception qu'ont les législateurs des priorités de leurs mandants et rend obsolète le processus de consultation publique, en noyant les plateformes d'e-réglementation sous un déluge de commentaires synthétiques et uniques.3 Si l'IA corrompt l'entrée démocratique (democratic input), l'architecture même de la prise de décision participative est compromise, minant la capacité du gouvernement à être réactif (responsiveness).
Menace sur la Responsabilité Démocratique (Accountability)
Pour que la responsabilité électorale soit effective, les électeurs doivent avoir accès à des informations fiables sur les actions de leurs représentants. Là où les anciennes campagnes d'influence (comme en 2016) pouvaient être trahies par des erreurs grammaticales subtiles, les IAG modernes font de chaque utilisateur l'équivalent d'un locuteur natif, surmontant cette limitation.3 La technologie permet ainsi de créer des sites de spam entiers et d'inonder les médias sociaux de faux contenus à une échelle et une qualité sans précédent.3 Cette automatisation du discours et de l'ingénierie sociale rend extrêmement difficile, voire impossible, pour les citoyens, de surveiller et de juger les actions de leurs élus, érodant la responsabilité démocratique.
Polarisation et Vérité Historique
L'effet cumulatif de l'inondation de contenu synthétique est l'amplification de la polarisation. Confrontés au nihilisme cognitif induit par l'impossibilité de distinguer la réalité objective, les votants sont susceptibles de se fier encore plus lourdement à des "heuristiques" comme le partisanisme, ce qui exacerbe la fracture politique et stresse les institutions.3 En outre, l'analogie de la désinformation historique montre la profondeur de la crise. L'IA générative est déjà pointée du doigt par des organisations comme l'UNESCO pour menacer l'histoire, notamment en générant de fausses narrations sur l'Holocauste, soulignant la nécessité urgente de préserver la vérité factuelle contre la production automatisée de récits alternatifs.14
3.2. Le Cadre Historique et Philosophique : Parallèles avec Gutenberg et la Révolution Industrielle
Pour évaluer la nature de la rupture sociétale, une comparaison avec les événements historiques majeurs est indispensable. L'IA a acquis assez rapidement le statut de "révolution technologique" aux yeux des experts 15, avec un potentiel d'impact économique massif, estimé à environ 16 % de croissance du PIB cumulé mondial d'ici 2030, comparable à celui d'autres technologies générales à travers l'histoire.16
Parallèle avec l'Imprimerie de Gutenberg
L'IA est souvent comparée à "la chose la plus importante depuis l'imprimerie à caractères mobiles de Johannes Gutenberg au XVe siècle".17 L'imprimerie a libéré les idées de l'emprisonnement par le clergé et les puissants, redistribuant le pouvoir et démocratisant la recherche humaine, ce qui a permis la Réforme et l'établissement de la méthode scientifique.17 L'IA partage cette caractéristique de redistribution du pouvoir et de prolifération en tant que technologie "open-source".17 Cependant, si l'imprimerie a stimulé l'enquête humaine, l'IA va plus loin, en remplaçant le processus linéaire de la cognition humaine par une capacité algorithmique d'identifier des patterns et d'atteindre des conclusions à l'échelle, créant une "révolution de l'intelligence".17
Parallèle avec la Révolution Industrielle
Historiquement, la Révolution Industrielle a marqué le passage du travail manuel à la mécanisation.18 L'IA représente une rupture similaire en opérant une transition du travail physique vers l'automatisation du travail intellectuel.16 Cette substitution de la main-d'œuvre par l'automatisation, particulièrement dans les tâches cognitives et répétitives, est un signe d'une transformation économique complète.18 Le glissement du travail manuel vers le travail intellectuel automatisé place l'IA comme le moteur d'une nouvelle ère économique, potentiellement la Cinquième Révolution Industrielle.18
La Vitesse de la Rupture
Ce qui distingue l'IA de ces précédents historiques, c'est la vitesse d'adoption. ChatGPT a atteint 100 millions d'utilisateurs en un mois seulement, un rythme sans précédent.3 Ce rythme fulgurant conduit à la conclusion que le rythme de changement actuel est "le rythme le plus lent que nous verrons jamais".17 La combinaison de la profondeur historique du changement (remise en cause de la cognition et de la vérité) et de la vélocité exponentielle de l'adoption confirme que nous sommes bien en phase d'une rupture sociétale complète et systémique.
Comparaison des Ruptures Technologiques : Imprimerie, Révolution Industrielle et IA
|
Caractéristique
|
Imprimerie (XVᵉ siècle)
|
Révolution Industrielle (XVIIIᵉ-XIXᵉ siècles)
|
Intelligence Artificielle (XXIᵉ siècle)
|
|
Rupture Primaire
|
Distribution de l'information (libération)
|
Mécanisation du travail physique et production de masse
|
Automatisation de l'intelligence et cognition à l'échelle
|
|
Impact sur le Travail
|
Déplacement des scribes traditionnels
|
Déplacement de la main-d'œuvre agricole et artisanale
|
Déplacement du travail intellectuel (analystes, codage, journalisme)
|
|
Conséquence Sociétale
|
Réforme, Renaissance, Méthode scientifique (expansion de l'enquête humaine)
|
Urbanisation, Nouvelles classes sociales, Cadres gouvernementaux industriels
|
Crise de la vérité, Polarisation, Redéfinition de l'identité humaine
|
|
Statut de Changement
|
Révolution de l'information
|
Révolution économique et sociale
|
Rupture Systémique (Sociétale, Économique, Anthropologique)
|
Partie IV : Stratégies de Résilience et Gouvernance de la Rupture
Face à l'ampleur du bouleversement, les réponses ne peuvent être exclusivement technologiques. Elles nécessitent une approche holistique combinant la régulation légale, la littératie citoyenne et une gouvernance éthique.
4.1. L'Encadrement Réglementaire : Transparence et Limites de l'EU AI Act
L'Union européenne a répondu à cette rupture en adoptant l'EU AI Act en août 2024, le premier cadre législatif mondial visant à encadrer l'usage des systèmes d'IA.20 Ce cadre impose des exigences strictes aux fournisseurs de systèmes d'IA classés comme présentant un risque élevé, inspirées des principes d'une IA digne de confiance (gouvernance, qualité des données, robustesse, supervision humaine, etc.).20 Les sanctions en cas de non-respect peuvent atteindre jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial.20
Un élément central de cette réglementation concerne la gestion de la crise de l'authenticité. L'Article 50 de l'AI Act établit des obligations de transparence pour les contenus synthétiques et les deepfakes.21 Les utilisateurs doivent être informés clairement qu'ils interagissent avec un système d'IA, et les contenus générés doivent être labellisés comme tels, si possible dans un format lisible par machine pour assurer leur détectabilité.20
Toutefois, la régulation fait face à des limites intrinsèques dues à l'agilité de la technologie. L'application générale pour les systèmes à haut risque ne débutera qu'en août 2026 20, laissant une fenêtre critique d'exploitation. De plus, les chercheurs avertissent que les obligations de transparence seules pourraient être insuffisantes pour stopper la vaste majorité des deepfakes de nature malveillante.22 La leçon tirée de la révolution Gutenberg est que le contrôle de la technologie open-source est futile ; l'encadrement doit se concentrer sur l'encadrement des effets et des outputs qu'elle produit.17 Le cadre légal doit donc être complété par des mesures agissant sur la réception et la conception de l'IA.
4.2. Les Garde-fous Non Techniques : Littératie, Éthique et Coopération
La résilience sociétale face à l'IA repose largement sur des garde-fous non techniques.
Premièrement, l'amélioration de la littératie numérique et médiatique est un rempart essentiel contre la désinformation et la polarisation.3 Des initiatives, y compris au niveau local en Amérique latine, exploitent déjà l'IA pour lutter contre la désinformation et encourager l'éducation à la vérification des faits et aux deepfakes.23 Ce renforcement des compétences permet de développer l'esprit critique nécessaire pour naviguer dans un environnement d'information saturé et corrompu.3
Deuxièmement, la gouvernance éthique doit être intégrée dès la phase de conception. L'UNESCO, à travers sa Recommandation sur l'éthique de l'intelligence artificielle 24, encourage une approche qui garantit l'inclusion et la prévention des angles morts. Pour une IA digne de confiance et au service de l'intérêt général 13, il est crucial de s'assurer de l'inclusion algorithmique dans ses quatre dimensions interdépendantes : l'accès, l'usage, la compréhension et, surtout, la conception, fondée sur une gouvernance exigeante garantissant l'éthique et la prévention des discriminations.13
4.3. Vers une Souveraineté Technologique et Territoriale
La gestion de la rupture exige de garantir que l'IA soit conçue pour servir les spécificités locales et nationales. Le manque de moyens (humains, techniques, financiers) et le manque de compétences des élus et agents locaux constituent le principal frein à l'adoption responsable de l'IA au niveau territorial.13
La formation et l'accompagnement des décideurs politiques sont indispensables. Des décideurs éclairés peuvent impulser la conception d'outils adaptés aux spécificités de leur territoire, assurer l'évaluation et le pilotage dans la durée, et structurer des politiques locales d'inclusion algorithmique.13 De plus, la mutualisation des ressources est une réponse stratégique pour dépasser le développement cloisonné de l'IA.13
Finalement, l'inclusion algorithmique n'est pas seulement un enjeu de justice sociale, c'est un levier essentiel pour le renforcement d'une souveraineté technologique territoriale et nationale. Il s'agit de s'assurer que l'intégration de l'IA ne soit pas dictée uniquement par les solutions des "géants du numérique" 25, mais qu'elle se traduise par le soutien d'acteurs locaux et la conception de solutions adaptées aux réalités démographiques et géographiques, garantissant ainsi que l'intérêt général prime.13
Conclusion Générale : Le Point de Bascule Sociétal
L'analyse confirme que l'impact de l'Intelligence Artificielle sur les réseaux sociaux et le système social humain excède largement la simple évolution technologique pour constituer une rupture sociétale complète. Cette rupture est multidimensionnelle, touchant simultanément les fondements épistémologiques, anthropologiques, démocratiques et économiques de la société.
La crise est d'abord épistémologique, marquée par la production automatisée de contenus synthétiques et la dissolution de la vérité objective, conduisant au nihilisme cognitif et à une ère post-vérité.3 Elle est ensuite anthropologique, avec la pénétration de l'IA dans la sphère affective (compagnons virtuels), remettant en question la nature de l'identité et de l'attachement humain.9 La crise est enfin démocratique et sociale, puisque la capacité de l'IA à fausser les perceptions et à miner la confiance électorale menace la représentation et la responsabilité du gouvernement 3, tout en creusant de nouvelles fractures territoriales et socio-économiques basées sur l'inclusion algorithmique.13
Le parallèle historique avec l'Imprimerie de Gutenberg et la Révolution Industrielle souligne la profondeur du changement – de la démocratisation du contenu à l'automatisation du travail intellectuel – mais aussi l'urgence de la situation, compte tenu de la vitesse d'adoption sans précédent de l'IA.3 Le rythme actuel du changement est le plus lent que nous connaîtrons.17
Pour naviguer dans cette rupture systémique, les stratégies de résilience doivent être déployées immédiatement et de manière intégrée. Cela passe par :
-
L'application rigoureuse du cadre réglementaire (EU AI Act) pour encadrer les effets et garantir la transparence du contenu généré.20
-
Le renforcement massif de la littératie numérique et de l'éducation civique pour outiller les citoyens contre la désinformation.3
-
L'adoption d'une gouvernance éthique, locale et nationale, visant l'inclusion algorithmique pour éviter une IA à deux vitesses et garantir la souveraineté technologique.13
En conclusion, la question n'est plus de savoir si le changement sociétal est complet, mais comment la société humaine peut développer l'agilité nécessaire pour gérer le déclin de la confiance et la re-polarisation des identités qui en résultent, tout en assurant que l'IA reste un outil au service du quotidien et de l'intérêt général.
Sources :
1
kaspersky.fr
Qu'est-ce que l'IA dans les réseaux sociaux ? - Kaspersky
S'ouvre dans une nouvelle fenêtre
2
bases-netsources.com
Quand l'IA réinvente les réseaux sociaux : décryptage d'une mutation - Bases & Netsources
S'ouvre dans une nouvelle fenêtre
3
journalofdemocracy.org
How AI Threatens Democracy | Journal of Democracy
S'ouvre dans une nouvelle fenêtre
4
unilim.fr
L'Intelligence Artificielle, une approche intersectionnelle
S'ouvre dans une nouvelle fenêtre
5
depot.erudit.org
Bulletin L'expreST mars 2019.pdf
S'ouvre dans une nouvelle fenêtre
6
actualites.uqam.ca
L'IA sous la loupe de la sociologie - Actualités UQAM
S'ouvre dans une nouvelle fenêtre
7
fr.wikipedia.org
Deepfake - Wikipédia
S'ouvre dans une nouvelle fenêtre
8
bigmedia.bpifrance.fr
Deepfake et PME : comment s'en prémunir ? | Big média - Bpifrance
S'ouvre dans une nouvelle fenêtre
9
vatican.va
Antiqua et nova - Note sur les relations entre l'intelligence artificielle et l'intelligence humaine (28 janvier 2025)
S'ouvre dans une nouvelle fenêtre
10
sociologique.ch
Peut-on aimer une IA ? Ce que nos attachements numériques révèlent - SocioLogique
S'ouvre dans une nouvelle fenêtre
11
ordrepsy.qc.ca
Introduction au dossier – La psychologie assistée par l'intelligence artificielle
S'ouvre dans une nouvelle fenêtre
12
ordrepsy.qc.ca
Relations intimes et intelligence artificielle : des usages émergents aux enjeux cliniques
S'ouvre dans une nouvelle fenêtre
13
institut-terram.org
IA et inclusion algorithmique : un enjeu de cohésion sociale ...
S'ouvre dans une nouvelle fenêtre
14
unesco.org
L'IA générative menace l'histoire de l'Holocauste (rapport UNESCO)
S'ouvre dans une nouvelle fenêtre
15
unedic.org
Intelligence artificielle et emploi : « L'IA a acquis assez rapidement le statut de révolution technologique » | Unédic.org - Unedic
S'ouvre dans une nouvelle fenêtre
16
nexford.edu
How will Artificial Intelligence Affect Jobs 2025-2030 | Nexford University
S'ouvre dans une nouvelle fenêtre
17
brookings.edu
Gutenberg's message to the AI era | Brookings
S'ouvre dans une nouvelle fenêtre
18
mdpi.com
Industrial Revolutions and Automation: Tracing Economic and Social Transformations of Manufacturing - MDPI
S'ouvre dans une nouvelle fenêtre
19
global.fujitsu
AI: The Digital Age's Gutenberg Printing Press | Fujitsu Global
S'ouvre dans une nouvelle fenêtre
20
deloitte.com
EU AI Act : comprendre le premier cadre réglementaire sur l ...
S'ouvre dans une nouvelle fenêtre
21
arxiv.org
What constitutes a Deep Fake? The blurry line between legitimate processing and manipulation under the EU AI Act - arXiv
S'ouvre dans une nouvelle fenêtre
22
acigjournal.com
Regulating Deep Fakes in the Artificial Intelligence Act
S'ouvre dans une nouvelle fenêtre
23
coe.int
Idée 3 : IA et démocratie - world-forum-democracy
S'ouvre dans une nouvelle fenêtre
24
unesco.org
Éthique de l'intelligence artificielle - UNESCO
S'ouvre dans une nouvelle fenêtre
25
inrs.fr
L'intelligence artificielle au service de la santé et de la sécurité au travail - Synthèse - INRS