Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l’IA de pointe. Apprendre encore plus
Dans notre hâte de comprendre et de comprendre l’IA, nous sommes tombés dans un piège séduisant : attribuer des caractéristiques humaines à ces systèmes robustes mais fondamentalement non humains. Cette anthropomorphisation de l’IA n’est pas seulement une bizarrerie inoffensive de la nature humaine : elle devient une tendance de plus en plus dangereuse qui pourrait obscurcir notre jugement de manière critique. Les chefs d’entreprise comparent l’apprentissage de l’IA à l’éducation humaine pour justifier leurs pratiques de formation auprès des législateurs qui élaborent des politiques basées sur des analogies erronées entre l’homme et l’IA. Cette tendance à humaniser l’IA pourrait influencer de manière inappropriée des décisions cruciales dans tous les secteurs et dans les cadres réglementaires.
Envisager l’IA sous l’angle humain dans les entreprises a conduit les entreprises à surestimer les capacités de l’IA ou à sous-estimer la nécessité d’une surveillance humaine, ce qui a parfois des conséquences coûteuses. Les enjeux sont particulièrement importants dans le domaine du droit d’auteur, où la pensée anthropomorphique a conduit à des comparaisons problématiques entre l’apprentissage humain et la formation à l’IA.
Le piège de la langue
Écoutez comment nous parlons de l’IA : nous disons qu’elle « apprend », « pense », « comprend » et même « crée ». Ces termes humains semblent naturels, mais ils sont trompeurs. Lorsque nous disons qu’un modèle d’IA « apprend », il ne comprend pas comme un étudiant humain. Au lieu de cela, il effectue des analyses statistiques complexes sur de grandes quantités de données, ajustant les poids et les paramètres de ses réseaux neuronaux sur la base de principes mathématiques. Il n’y a pas de compréhension, d’eurêka, d’étincelle de créativité ou de compréhension réelle – juste une correspondance de modèles de plus en plus sophistiquée.
Ce tour de passe-passe linguistique est plus que simplement sémantique. Comme indiqué dans le document, Les arguments illusoires de l’IA générative en faveur d’une utilisation équitable: “L’utilisation d’un langage anthropomorphique pour décrire le développement et le fonctionnement des modèles d’IA est déformante car elle suggère qu’une fois formé, le modèle fonctionne indépendamment du contenu des œuvres sur lesquelles il s’est formé.” Cette confusion a des conséquences réelles, notamment lorsqu’elle influence les décisions juridiques et politiques.
La déconnexion cognitive
L’aspect le plus dangereux de l’anthropomorphisation de l’IA est peut-être la manière dont elle masque les différences fondamentales entre l’intelligence humaine et l’intelligence artificielle. Alors que certains systèmes d’IA excellent dans des types spécifiques de tâches de raisonnement et d’analyse, les grands modèles de langage (LLM) qui dominent le discours actuel sur l’IA – et sur lesquels nous nous concentrons ici – fonctionnent grâce à une reconnaissance de formes sophistiquée.
Ces systèmes traitent de grandes quantités de données, identifiant et apprenant les relations statistiques entre les mots, les phrases, les images et autres entrées pour prédire ce qui devrait suivre dans une séquence. Lorsque nous disons qu’ils « apprennent », nous décrivons un processus d’optimisation mathématique qui les aide à faire des prédictions de plus en plus précises basées sur leurs données d’entraînement.
Considérez cet exemple frappant issu des recherches de Berglund et ses collègues : Un modèle formé sur des matériaux indiquant « A est égal à B » ne peut souvent pas raisonner, comme le ferait un humain, pour conclure que « B est égal à A ». Si une IA apprend que Valentina Tereshkova a été la première femme dans l’espace, elle pourrait répondre correctement « Qui était Valentina Tereshkova ? » mais luttez avec « Qui a été la première femme dans l’espace ? » Cette limitation révèle la différence fondamentale entre la reconnaissance de formes et le vrai raisonnement – entre prédire des séquences probables de mots et comprendre leur signification.
L’énigme du droit d’auteur
Ce biais anthropomorphique a des implications particulièrement troublantes dans le débat en cours sur l’IA et le droit d’auteur. Satya Nadella, PDG de Microsoft a récemment comparé la formation en IA à l’apprentissage humain, ce qui suggère que l’IA devrait être capable de faire de même si les humains peuvent apprendre à partir de livres sans implications en matière de droit d’auteur. Cette comparaison illustre parfaitement le danger de la pensée anthropomorphique dans les discussions sur l’IA éthique et responsable.
Certains soutiennent que cette analogie doit être révisée pour comprendre l’apprentissage humain et la formation à l’IA. Lorsque les humains lisent des livres, nous n’en faisons pas de copies : nous comprenons et intériorisons les concepts. Les systèmes d’IA, quant à eux, doivent réaliser de véritables copies d’œuvres – souvent obtenues sans autorisation ni paiement – les coder dans leur architecture et maintenir ces versions codées pour fonctionner. Les travaux ne disparaissent pas après « apprentissage », comme le prétendent souvent les sociétés d’IA ; ils restent ancrés dans le les réseaux neuronaux du système.
L’angle mort des entreprises
L’IA anthropomorphisée crée des angles morts dangereux dans la prise de décision commerciale, au-delà de simples inefficacités opérationnelles. Lorsque les dirigeants et les décideurs considèrent l’IA comme « créative » ou « intelligente » en termes humains, cela peut conduire à une cascade d’hypothèses risquées et à des responsabilités juridiques potentielles.
Surestimation des capacités de l’IA
Un domaine critique dans lequel l’anthropomorphisation crée des risques est la génération de contenu et le respect des droits d’auteur. Lorsque les entreprises considèrent l’IA comme capable « d’apprendre » comme les humains, elles peuvent supposer à tort que le contenu généré par l’IA est automatiquement exempt de tout problème de droit d’auteur. Ce malentendu peut conduire les entreprises à :
- Déployer des systèmes d’IA qui reproduisent par inadvertance du matériel protégé par le droit d’auteur, exposant ainsi l’entreprise à des poursuites pour violation
- Ne pas mettre en œuvre des mécanismes appropriés de filtrage et de surveillance du contenu
- Supposer à tort que l’IA peut faire la distinction de manière fiable entre le domaine public et le matériel protégé par le droit d’auteur
- Sous-estimer la nécessité d’un examen humain dans les processus de génération de contenu
Le point mort de la conformité transfrontalière
Le biais anthropomorphique de l’IA crée des dangers lorsque l’on considère la conformité transfrontalière. Comme l’expliquent Daniel Gervais, Haralambos Marmanis, Noam Shemtov et Catherine Zaller Rowland dans “Le cœur du problème : droits d’auteur, formation en IA et LLM,« La loi sur le droit d’auteur fonctionne selon des principes territoriaux stricts, chaque juridiction maintenant ses propres règles sur ce qui constitue une violation et quelles exceptions s’appliquent.
Cette nature territoriale de la loi sur le droit d’auteur crée un réseau complexe de responsabilités potentielles. Les entreprises pourraient supposer à tort que leurs systèmes d’IA peuvent librement « apprendre » à partir de documents protégés par le droit d’auteur dans toutes les juridictions, sans reconnaître que les activités de formation légales dans un pays peuvent constituer une contrefaçon dans un autre. L’UE a reconnu ce risque dans sa loi sur l’IA, notamment à travers Considérant 106qui exige que tout modèle d’IA à usage général proposé dans l’UE soit conforme à la loi européenne sur le droit d’auteur concernant les données de formation, quel que soit le lieu où cette formation a eu lieu.
C’est important car l’anthropomorphisation des capacités de l’IA peut conduire les entreprises à sous-estimer ou à mal comprendre leurs obligations juridiques au-delà des frontières. La fiction confortable selon laquelle l’IA « apprend » comme les humains obscurcit la réalité selon laquelle la formation à l’IA implique des opérations complexes de copie et de stockage qui déclenchent des obligations juridiques différentes dans d’autres juridictions. Cette incompréhension fondamentale du fonctionnement réel de l’IA, combinée à la nature territoriale de la loi sur le droit d’auteur, crée des risques importants pour les entreprises opérant à l’échelle mondiale.
Le coût humain
L’un des coûts les plus préoccupants est le coût émotionnel de l’IA anthropomorphisée. Nous constatons de plus en plus de cas de personnes nouant des liens émotionnels avec les chatbots IA, les traitant comme des amis ou des confidents. Cela peut être particulièrement dangereux pour les personnes vulnérables qui pourraient partager des informations personnelles ou compter sur l’IA pour un soutien émotionnel qu’elle ne peut pas fournir. Les réponses de l’IA, bien qu’apparemment empathiques, sont des correspondances de modèles sophistiquées basées sur des données d’entraînement – il n’y a pas de véritable compréhension ni de lien émotionnel.
Cette vulnérabilité émotionnelle pourrait également se manifester dans le cadre professionnel. À mesure que les outils d’IA sont de plus en plus intégrés au travail quotidien, les employés peuvent développer des niveaux de confiance inappropriés dans ces systèmes, les traitant comme de véritables collègues plutôt que comme des outils. Ils peuvent partager trop librement des informations professionnelles confidentielles ou hésiter à signaler des erreurs par sentiment de loyauté déplacé. Bien que ces scénarios restent isolés pour le moment, ils mettent en évidence à quel point l’IA anthropomorphisée sur le lieu de travail pourrait obscurcir le jugement et créer des dépendances malsaines à l’égard de systèmes qui, malgré leurs réponses sophistiquées, sont incapables d’une véritable compréhension ou d’une véritable attention.
Se libérer du piège anthropomorphique
Alors comment avancer ? Premièrement, nous devons être plus précis dans notre langage à propos de l’IA. Au lieu de dire qu’une IA « apprend » ou « comprend », nous pourrions dire qu’elle « traite les données » ou « génère des résultats basés sur des modèles présents dans ses données d’entraînement ». Ce n’est pas seulement pédant – cela aide à clarifier ce que font ces systèmes.
Deuxièmement, nous devons évaluer les systèmes d’IA en fonction de ce qu’ils sont plutôt que de ce que nous imaginons qu’ils soient. Cela signifie reconnaître à la fois leurs capacités impressionnantes et leurs limites fondamentales. L’IA peut traiter de grandes quantités de données et identifier des modèles que les humains pourraient manquer, mais elle ne peut pas comprendre, raisonner ou créer comme le font les humains.
Enfin, nous devons développer des cadres et des politiques qui s’attaquent aux caractéristiques réelles de l’IA plutôt qu’aux qualités imaginaires de l’humain. Ceci est particulièrement crucial dans le droit d’auteur, où la pensée anthropomorphique peut conduire à des analogies erronées et à des conclusions juridiques inappropriées.
La voie à suivre
À mesure que les systèmes d’IA deviennent plus sophistiqués pour imiter les productions humaines, la tentation de les anthropomorphiser deviendra plus forte. Ce biais anthropomorphique affecte tout, depuis la manière dont nous évaluons les capacités de l’IA jusqu’à la manière dont nous évaluons ses risques. Comme nous l’avons vu, cela se traduit par d’importants défis pratiques liés à la législation sur le droit d’auteur et à la conformité des entreprises. Lorsque nous attribuons des capacités d’apprentissage humain aux systèmes d’IA, nous devons comprendre leur nature fondamentale et la réalité technique de la manière dont ils traitent et stockent les informations.
Comprendre l’IA pour ce qu’elle est réellement – des systèmes de traitement de l’information sophistiqués, et non des apprenants humains – est crucial pour tous les aspects de la gouvernance et du déploiement de l’IA. En dépassant la pensée anthropomorphique, nous pouvons mieux relever les défis des systèmes d’IA, depuis les considérations éthiques et les risques de sécurité jusqu’au respect des droits d’auteur transfrontaliers et à la gouvernance des données de formation. Cette compréhension plus précise aidera les entreprises à prendre des décisions plus éclairées tout en favorisant une meilleure élaboration de politiques et un meilleur discours public autour de l’IA.
Plus tôt nous comprendrons la véritable nature de l’IA, mieux nous serons équipés pour faire face à ses profondes implications sociétales et aux défis pratiques de notre économie mondiale.
Roanie Levy est conseillère en licences et juridique chez CCC.
DataDecisionMakers
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.
Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.
Vous pourriez même envisager de rédiger votre propre article !
En savoir plus sur DataDecisionMakers