Rechercher
Fermer ce champ de recherche.

Mise à jour : 

16/12/2024

IA : comment apprendre à un cerveau artificiel à comprendre le bien et le mal

Sommaire

#

 

Des films comme I, Robot, Wall-e et Bicentennial Man posent des questions intéressantes qui brouillent les frontières entre l’homme et les machines. Ils permettent non seulement à notre imagination de s’envoler, mais quelque part, ils laissent poindre un soupçon de crainte ou d’incertitude quant au bien réel de nos actions scientifiques lorsque l’homme essaie de jouer à Dieu !

Cependant, avec les derniers développements dans le secteur de l’IA, il est sûr de dire que des robots assassins ou un piège de champ cyber-warp comme dans Matrix, où ils asserviront le créateur de machines est encore un futur lointain et très improbable.

Peut-être que cela nous aide à mieux comprendre notre humanité même quand nous essayons de traduire ces traits de pensée et de décision dans nos créations machinistes ! Alors, à quel point sommes-nous loin d’avoir un robot avec une morale ?

Avant de commencer à discuter de la façon dont la socialisation d’une IA ou son entraînement à une conscience presque humaine peut être utile pour la science ou pour le plus grand bien des humains, nous devons nous référer à cette citation d’Aristote pour comprendre notre propre disposition, où il déclare –

« Toute connaissance et toute poursuite visent un certain bien »

Cependant, il ajoute aussi à l’inverse « Qu’est-ce que les gens entendent alors par « bien », encapsulant ainsi davantage le dilemme éthique. Depuis son époque, cette même déclaration a été discutée et débattue rigoureusement maintenant. Après une longue histoire de barbarie, de guerre, de famine et de pauvreté, la race humaine s’est finalement unie dans son intérêt collectif pour acquérir plus de connaissances et de sagesse. Nous sommes maintenant tous d’accord pour travailler pour le bien et le juste. Cependant, le temps nous a amené à un carrefour où l’identification de ce que cela implique est difficile.

Nous avons étudié la chimiogénie et la biogénie qui ont conduit à l’origine de la vie sur terre, mais nous n’avons jamais prêté attention au concept de cognogénie. Maintenant que nous avançons dans « l’ère cognitive » avec des machines capables de penser et de prendre des décisions comme les humains, la question de savoir quelle devrait être l’étoile directrice de nos actions prend une importance nouvelle. La question brûlante dans l’esprit des scientifiques, des ingénieurs et des psychologues, ainsi que du reste de la population humaine moyennement douée en sciences, est la suivante : « S’il est encore si difficile d’attribuer un ensemble spécifique de normes auxquelles une personne devrait se conformer pour agir de manière juste et sage, alors comment pouvons-nous faire un bond en avant pour les coder dans les machines dotées d’une « intelligence artificielle » que nous fabriquons ? » Et cette question doit trouver une réponse assez rapidement, si nous voulons franchir la prochaine étape de l’évolution humaine.

 

Moralité vs. Normes culturelles

C’est encore une autre question à laquelle nous devons faire face, et c’est – nous devons décider non seulement quels principes éthiques doivent être codés dans nos machines artificielles pour penser comme nous, mais aussi comment coder ces éthiques.

Alors que pour la plupart, « Tu ne tueras pas » reste une pierre angulaire d’un principe pour coder l’intelligence dans l’IA. Mais qu’en est-il des rares cas d’utilisation de l’IA comme dans les services secrets, ou si un robot doit être employé comme soldat ou garde du corps. Après tout, le soldat d’un homme est le meurtrier d’un autre ! Ainsi, c’est grandement une question de préférence, qui affecte surtout le contexte.

Cependant, qu’est-ce qui fait qu’un principe est une valeur morale tandis qu’un autre, une norme culturelle ? Cela reste une question à laquelle même les éthiciens les plus acclamés ne pourraient pas répondre ; mais les roboticiens doivent toujours encoder ces décisions dans leurs algorithmes.

Tandis que certains cas auront des principes stricts, et dans d’autres cas, il y aura simplement des préférences basées sur le contexte. Quant à certaines tâches, les algorithmes devront être codés légèrement différemment selon la juridiction dans laquelle ils peuvent opérer.

 

Les normes doivent être fixées plus haut

De nombreux experts en IA et initiés de l’industrie pensent que nous devons fixer des normes morales plus élevées pour nos robots que pour les humains.

Les géants de l’industrie technologique tels que Google, Amazon, IBM et Facebook ont récemment mis en place des partenariats pour créer une plateforme ouverte entre les principales entreprises d’IA et les parties prenantes du gouvernement, du monde universitaire et de l’industrie afin de faire des progrès dans la compréhension et la promotion des meilleures pratiques. Mais cela reste encore un simple point de départ.

Facebook
Twitter
LinkedIn