Le dilemme du train:
"Un train sans conducteur fonce le long d'une voie sur laquelle trois personnes sont attachées. Vous pouvez les sauver en actionnant un aiguillage qui le fera changer de direction, vers une autre voie sur laquelle une seule personne est attachée. Le faites-vous?"
(Ce dilemme est aussi une parfaite métaphore de l'élection en cours)
J'ai souvent constaté quand on posait cette question aux gens que le premier réflexe était de chercher une échappatoire. :)
En l'occurrence: "on peut pas couper le courant, plutôt?", ou "j'essaie de foncer les détacher". J'ai l'impression que l'esprit a du mal avec les prises de position morales fortes.
Si vous jouez le jeu, sans essayer de tricher avec l'énoncé: vous avez une réponse?
Ce n'est pas une devinette, hein. Je vous donne la réponse majoritaire: la plupart des gens optent pour "le moindre mal" et changent le train de voie.
Après, le twist sur ce dilemme: imaginez maintenant qu'il n'y ait qu'une seule voie avec les trois personnes attachées. Le train peut être arrêté en cas de choc avec quelqu'un de suffisamment lourd. À côté de vous il y a un gros monsieur que vous pouvez faire tomber sur la voie. Le poussez-vous?
Dans les deux cas vous êtes acteur direct du dénouement: vous sacrifiez une vie de vos mains pour en sauver trois. Pourtant on perçoit clairement que les deux situations ne sont pas équivalentes alors qu'elles semblent avoir le même "poids moral".
La raison est bien sûr que la décision n'a pas le même poids émotionnel. Ce qui fait la différence, c'est la proximité.
C'est d'ailleurs ce qu'on essaie de quantifier quand on cherche des échappatoires et des solutions tangentes: qui sont ces gens? Est-ce que je sacrifie un enfant pour sauver trois nazis? Est-ce que je sauve un proche au prix de trois, dix, cent personnes?
Bref, nous ne sommes pas purement "utilitaristes".
C'est une question qui se pose concrètement en intelligence artificielle, notamment pour les voitures sans chauffeurs.
Dilemme 1: la voiture roule entourée de deux voitures. une avec une famille de cinq personnes, une avec une personne seule. Devant elle, un énorme chargement tombe d'un camion. Freiner ne suffira pas. Doit-elle: se déporter à gauche et mettre en danger la voiture avec la famille, à droite vers la voiture avec une seule personne, ou rester/freiner et sacrifier le conducteur?
Dilemme 2: au lieu de deux voitures, c'est un vélo et une voiture avec famille: la voiture a de meilleures chances de subir des dégâts moins important. Mais elle contient cinq personnes là ou le vélo n'en représente qu'une.
Dilemme 3: Deux vélos. L'un a un casque, l'autre non. Celui avec un casque a de meilleures chances, l'autre ne respecte pas la loi. Et de plus, si on le protège, il devient de fait PLUS SÛR de rouler sans casque, puisque les voitures vont davantage vous épargner. Mindfuck
Et surtout, une question essentielle dans ce débat: en cas d'accident mortel, qui est responsable?
Considère-t-on l'I.A. comme une personne?
Si non, est-ce le programmeur de l'I.A.? Le fabricant de la voiture? Le conducteur?
Les intelligences artificielles vont VRAIMENT représenter des casse-tête dans pas longtemps du tout. :-)
@Bouletcorp bof non. On ne pense pas : "que faire si notre machine ne marche pas", mais "comment faire pour que notre machine marche"
Parce que si on se met à vouloir contrôler une perte de contrôle c'est qu'on en a trop pris.
@technolapin @Bouletcorp Ben, elle sera tôt au tard confronté à des sacrifices :x
@technolapin @Technowix @Bouletcorp "comment l'engin doit dérailler" c'est la base en conception de produit. Quand tu conçois la sécurité des machines en usine, un des protocoles est en gros d'imaginer comment l'utilisateur pourrait faire pour se suicider avec s'il le voulait très activement, et il doit pas pouvoir y parvenir.
@technolapin @Krysalia @Bouletcorp Les protocoles prévoient le suicide d'une personne ?
@Technowix @Krysalia @Bouletcorp ben oui. On est dans le cas d'une machine fonctionnelle, qui est prévue pour une utilisation précise, et qui ne doit pas fonctionner hors de cette utilisation. C'est le boulot de l'ingénieur de délimiter les conditions d'usage.
@technolapin @Krysalia @Bouletcorp donc on prévoit le suicide d'une personne, mais pas celui d'un arbre sur la route ? D'un coup de tonnerre ?
Si le mec qui se suicide saute soudainement sur la route, tu fais comment ?
@Technowix @Krysalia @Bouletcorp le mec qui se jette sous tes roues tu l'a vu venir, parce que tu a des capteurs, variés et performants.
On parle de machine, pas d'humains. La machine ne prend pas de risque, et la situation où on peut se jetter sous ses roues ne peut donc pas arriver.
@technolapin @Krysalia @Bouletcorp o_ô t'a jamais roulé sur une nationale ?
@technolapin @Krysalia @Bouletcorp Et même si tu détecte que le mec veux sauter, et qu'un autre véhicule viens en face, tu fais comment ?
@Technowix @Krysalia @Bouletcorp je comprend pas, tu parle du cas où le mec va se faire écraser par un autre véhicule?
@Technowix @Krysalia @Bouletcorp ben tu t'arrête.
Aller vite dans un contexte où la visibilité est réduite et donc où tu ne peut pas voir ce genre de choses arriver relève d'une mauvaise utilisation de l'engin.
@technolapin @Krysalia @Bouletcorp 🤔 dans ce cas le véhicule doit aller à 10 km/h a partir du moment où il y a une bouche d'égout / arbre / humain / orage / falaise...
@Technowix @Krysalia @Bouletcorp c'est éxagérer, une ia devra être plus prudente, mais aura un temsp de réaction négligeable, donc une distance de freinage moindre.
Aller à 50 km en ville ça semble acceptable.
Dès que le véhicule ne peut avoir connaissance de tous les objets pouvant interargir avec lui, il doit prévoir et ralentir.
C'est comme ça qu'on doit conduire au passage.
@technolapin @Krysalia @Bouletcorp 50km/h c'est trop tard, un type peux faire 5m dans trop de problème (c'est 2m la distance de chaussée recommandée)
Oué, c'est comme ça qu'on conduit, mais quand on doit faire un choix, on doit le faire o_ô un imprévu c'est toujours possible, aussi performant que soit tes capteurs...
@Technowix @Krysalia @Bouletcorp c'est plus une histoire de capteur, mais de suivre des protocoles de sécurité non-faillibles.
Avoir conscience de l'entièreté de son environement entraîne la capacité à gérer l'évolution des évènements.
Est appellé environnement ici l'ensemble des objets qui peuvent interargir avec le véhicule dans un temps correspondant au temps de freinage.
@technolapin @Krysalia @Bouletcorp Oué, mais là encore ces règles sont uniquement potable si tout le monde suit les règles :)
Si un type les suis pas, t'auras beau avoir la meilleur AI, tu peux pas prédire l'avenir.
Sur une autoroute, même a sens unique, le mec qui s'endors au volant et fait une soudaine déportée pendant que tu le double...
@Technowix @technolapin @Bouletcorp si ça ne vous embête pas de me démentionner :).
@Technowix @Krysalia @Bouletcorp tu prévois ce genre de comportement en suivant des protocoles de sécurité simples, comme respecter les distances de sécurité.
@Bouletcorp @Technowix Si une situation implique la non-connaissance d'une partie de l'environement, la vitesse aurait dûe au préalable être réduite pour réduire la taille dudit environnement au point où l'entièreté de l'environnement est connu.
@technolapin @Bouletcorp donc on en revient à ce que je t'ais dis : dès qu'il y a un inconnu, on réduit à la vitesse totalement safe de 10km/h, car ben, on sais pas si l'arble va pas soudainement tomber, ou le pont autoroutier s'écrouler soudainement d'un côté...
@Technowix @Bouletcorp par exemple, pour le cas du pond autoroutier, il y a deux possibilités:
-tu est trop loin et tu respecte les distances de sécurité et donc il n'y a aucun problème
-tu est celui qui se prend le pond sur la poire. Et là c'est plus une histoire de décision.
@technolapin @Bouletcorp Donc on prends comment cette décision, en tant qu'AI ? faut gérer le cas... x)
@Technowix @Bouletcorp le cas "mort subite par pond"?
Aucune décision à prendre.
Le véhicule et ses utilisateurs sont détruits.
@technolapin @Bouletcorp J'aimerais pas acheter un véhicule qui me condamne alors qu'a la main j'aurait pu m'en sortir.
@Technowix @Bouletcorp ben non si tu est sous le pond tu peux structurellement pas t'en sortir.
@Krysalia @Technowix @Bouletcorp rien à voir, dans ce cas tu prévoit une situation à laquelle la machine fonctionnelle doit faire face.
Là on parle du moment où la machine n'arrive plus à suivre les protocoles.