Donc si on apprend à une machine, qu'un type de comportement est dangereux (selon le programmeur ) et qu'il faut en éliminer la cause ... La machine procédera à l'éradication de celle-ci, quel qu'en soit le moyen . C'est là, que ça devient dangereux, car elle n'a pas de conscience
Donc si on apprend à une machine, qu'un type de comportement est dangereux (selon le programmeur ) et qu'il faut en éliminer la cause ... La machine procédera à l'éradication de celle-ci, quel qu'en soit le moyen . C'est là, que ça devient dangereux, car elle n'a pas de conscience
Intéressant, à cogiter🤔
C'est un peu la base de certaines histoires de SF