IA : le mythe du XXIe siècle. 3, Ethique
de Alexandre Lacroix, Joseph Weizenbaum In Philosophie magazine. Hors-série, 057 (05/2023), p.50-59 Réflexion sur l'enjeu d'une IA pourvue d'éthique. Etude de cas appliquée au développement des véhicules autonomes ; explication du "dilemme du tramway", qui serait transcrit dans un algorithme théorique susceptible de dicter leur conduite aux véhicules autonomes ; enjeu de sécurité lié aux approches du risque qu'ont les constructeurs et à la valeur accordée à la vie humaine. Point de vue, en 1976, de Joseph Weizenbaum, concepteur du robot-psy de discussion Eliza, sur les dangers que représente l'IA pour la vie humaine, quand la prise de décision assistée par ordinateur se substitue au choix humain. |
Lacroix Alexandre, Weizenbaum Joseph.
« IA : le mythe du XXIe siècle. 3, Ethique »
in Philosophie magazine. Hors-série, 057 (05/2023), p.50-59.
Titre : | IA : le mythe du XXIe siècle. 3, Ethique (2023) |
Auteurs : | Alexandre Lacroix ; Joseph Weizenbaum |
Type de document : | Article : texte imprimé |
Dans : | Philosophie magazine. Hors-série (057, 05/2023) |
Article : | p.50-59 |
Langues: | Français |
Descripteurs : | intelligence artificielle / morale |
Résumé : | Réflexion sur l'enjeu d'une IA pourvue d'éthique. Etude de cas appliquée au développement des véhicules autonomes ; explication du "dilemme du tramway", qui serait transcrit dans un algorithme théorique susceptible de dicter leur conduite aux véhicules autonomes ; enjeu de sécurité lié aux approches du risque qu'ont les constructeurs et à la valeur accordée à la vie humaine. Point de vue, en 1976, de Joseph Weizenbaum, concepteur du robot-psy de discussion Eliza, sur les dangers que représente l'IA pour la vie humaine, quand la prise de décision assistée par ordinateur se substitue au choix humain. |
Nature du document : | documentaire |
Genre : | Article de périodique |
Exemplaires (1)
Cote | Section | Localisation | Code-barres | Disponibilité |
---|---|---|---|---|
archives | Documentaire | CDI | 23748 | Disponible |