Quelques débats et propos philosophique [Fermeture du topic]

Statut
N'est pas ouverte pour d'autres réponses.
Ceci dit, si on se démerde bien qu'on qu'on arrive au niveau technologique des livres Le cycle des robots d'Isaac Asimov, et que les IA seraient soumises aux même lois, on se mettrait bien
Attends mec il est trop bien ce livre, fais toi pas spoil si bêtement :v
Dans la dernière histoire du premier tome, le robot/super-ordinateur le plus puissant (en terme de vitesse de calcul) empêche des lois anti robots parce qu'il est conscient que sans ces robots qui protègent et aident les humains, l'humanité prendrait fin à un moment ou à un autre.
Il faut donc voir aussi l'aspect inverse, c'est à dire que les robots pourrait rendre la société meilleure s'ils sont programmés pour protéger l'humanité (à long terme, l'homme singulier à court terme)
 
  • J'aime
Reactions: CPUser_
Ceci dit, si on se démerde bien qu'on qu'on arrive au niveau technologique des livres Le cycle des robots d'Isaac Asimov, et que les IA seraient soumises aux même lois, on se mettrait bien
Attends mec il est trop bien ce livre, fais toi pas spoil si bêtement :v
Dans la dernière histoire du premier tome, le robot/super-ordinateur le plus puissant (en terme de vitesse de calcul) empêche des lois anti robots parce qu'il est conscient que sans ces robots qui protègent et aident les humains, l'humanité prendrait fin à un moment ou à un autre.
Il faut donc voir aussi l'aspect inverse, c'est à dire que les robots pourrait rendre la société meilleure s'ils sont programmés pour protéger l'humanité (à long terme, l'homme singulier à court terme)
En effet, on le voit bien à un moment de la série, où un des personnages dit au robot de ne pas penser à un seul des fils de la toile, mais à la toile entière (c'est-à-dire l'humanité).
En fait dans la série il y a trois lois énoncées (dont je ne me souviens plus), et le robot prend conscience de la quatrième loi ou "Loi Zéro", qui est de protéger l'humanité par tous les moyens possibles, même si cela entre en contradiction avec les trois premières lois.
 
Après, je pense dans le cas où c'est le créateur du robot qui le programme d'une mauvaise manière, plus destructeur. Et donc, la loi zéro ne pourrait pas fonctionner pour ce robot même les 3 autres lois précédentes.
 
Ça reste tout de même très peu probable qu'un type seul arrive à créer un robot capable de faire beaucoup de tort.
Et un groupe me direz vous ?
Encore faut il qu'un groupe partage cette envie de suicide et ai les moyens intellectuels et financiers de le faire...

En somme, c'est quasiment impossible.
 
Après, ça reste une question de "bug" informatique ou technique :D
 
Après, ça reste une question de "bug" informatique ou technique :D
Au pire, un bug va faire faire des trucs idiots (actions répétées, ne répond plus, paralysie partielle etc...), c'est tout.

Un truc pareil, ça sera pas fait par des débutants, donc il y aura peu de risques de bugs, et de ce que je connais de la programmation (et je commence à en savoir quelque chose), un bug ne peut pas provoquer un comportent vraaaaiment différent.
 
Zero > Tu ne dis pas que c'est improbable, tu dis que c'est peu probable donc on pourrait prendre en compte la loi de Murphy.
'fin pour moi, c'est impossible et pas seulement peu probable de toutes façons.
 
Un truc pareil, ça sera pas fait par des débutants, donc il y aura peu de risques de bugs, et de ce que je connais de la programmation (et je commence à en savoir quelque chose), un bug ne peut pas provoquer un comportent vraaaaiment différent.

Fait par des débutants ou des experts, les risques de bugs sont toujours présents. On peux prendre l'exemple de la fusée ariane 5 qui a explosé en plein vol à cause d'un bug informatique, pourtant c'étais bien des experts. Après, l'IA forte reste quand même très dangereuse du fait qu'elle posséderait la capacité d'apprendre, de ressentir des sentiments et cela pourrait entraîner un changement de comportement comme chez un humain qui à la suite d’événements traumatisant peut radicalement changer.
 
Statut
N'est pas ouverte pour d'autres réponses.