1. Objectivité => IA ; subjectivité => pas IA.
En fait je suis d'accord avec plein de trucs, bien sûr l'IA c'est cool pour remplacer tout ce qui est objectif, mais pour tout ce qui n'est pas objectif, la vraie question comme d'habitude, si on choisit de se laisser contrôler par des IAs, c'est "qui contrôle le contrôleur ?".
Et on voit aujourd'hui que, les gens qui sont derrière les algorithmes automatiques qui régissent quand même tout un tas de trucs dans nos vies, ils n'ont pas vraiment envie d'être transparents et qu'ils ont des intérêts propres à conserver.
Donc l'IA pour l'objectif, oui (on est bien contents de pouvoir passer en pilote automatique dans les avions par ex.). Pour le reste, tant qu'on n'aura pas décidé ensemble de ce qu'on peut accepter ou pas, et surtout tant qu'on n'expliquera pas ce qu'il y a derrière, je crois que ce n'est pas la meilleure idée du monde.
2. La machine se trompe "moins" que l'homme.
Sinon, sur le fait que la machine se trompe moins que l'homme, je ne suis pas tout à fait sûr de cette phrase. La machine, elle fait quand même plus ou moins la même chose. Si elle a une propension à faire une erreur dans une situation donnée, elle fera presque toujours l'erreur dans cette situation (l'exemple maintenant bien connu de l'IA de Facebook qui bannit automatiquement les tétons féminins). Mais c'est quand même potentiellement dangereux, car celui qui découvre une potentielle faille peut s'en servir pour se remplir les poches (ou pire). Par ex. il y avait un bug dans les distributeurs automatiques de billets au tout début: si tu prenais certains billets mais pas tous, la machine ne recomptait pas, reprenait le reste de billets et te recréditait de l'intégralité de la somme que tu voulais retirer. Donc bingo, tu demandes à retirer 400€, tu laisses un billet de 20€, et t'as gagné 380€ (véridique).
À part dans des systèmes très contrôlés (reprenons justement le cas de l'avion, où on développe des techniques pour *prouver* des algorithmes, donc on est sûr qu'ils font ce qu'on veut et pas autre chose), je vois donc d'un assez mauvais oeil les machines. Certes, elles font moins d'erreurs que l'homme, mais elles font toujours les mêmes (c'est le fameux problème des failles de sécurité). Alors bien sûr, blabla elle va apprendre toute seule de ses erreurs, on n'est pas dans le même paradigme quand on parle d'apprentissage automatique et quand on parle de programmes statiques, peut-être, mais derrière il y a tout de même bien un programme.
Tous les jours je suis ultra content de savoir programmer et de pouvoir automatiser des trucs sur mon ordinateur, pour mon boulot, mes tâches administratives, mes mails, etc. Mais si je me goure quand je fais mon script, bah au pire j'ai bouzillé mon disque dur de backup, j'en rachète un. Si on se goure dans un gros gros script, c'est un peu plus grave... Et c'est même d'autant plus grave si on ne sait pas qu'on s'est gourés, ou pire, si quelqu'un connaît la parade et voudrait s'en servir pour des trucs pas cool (on peut penser aux avions de combat vendus par la France, qui avaient un mode "je marche plus" activable sur commande compliquée, et évidemment quand le pays X a voulu attaquer le pays Y qui avait acheté ces avions à la France, je vous laisse deviner quelle a été la première question du pays X auprès des fabricants d'avions français...)
|