Bah tout dépend de ce qu'on met dans le mot. Il y a une acception de l'intelligence humaine qui ne la limite pas aux processus purement cognitifs. Au contraire, elle considère que les émotions, par exemple, sont le fait de la machine à calculer cérébrale, et qu'elles alimentent l'intelligence en algorithmes, de façon indépendante du processus cognitif.TOPOLO a écrit : ↑ven. janv. 24, 2020 5:01 pmC'est un peu OFF TOPIC, mais une intelligence humaine est elle capable de faire autre chose ? (que de discuter avec un autre être humain et que celui-ci la considère comme un être humain...), parce que pour faire autre chose que ça, il faut aussi un corps (humain)...
Un des gros problèmes quand on parle d'IA, c'est que tout le monde croit parler de la même chose, et du coup tout le monde croit que son interlocuteur le comprend. Mais c'est tout le contraire. Pierre considère que l'exécution par un système d'un script à la con est un travail d'IA alors que Paul estime que le seuil de l'IA, c'est l'Autopilot de Tesla. Et ça peut aller très loin car certains en philo considèrent que l'intelligence est un truc faillible par nature, qui doit, pour rester l'intelligence, laisser la porte ouverte à la croyance. C'est bien simple : il n'y a pas de norme communément admise à ce sujet.
Alors quand on se demande à partir de quel seuil il y a trop d'IA, l'ennui est qu'on ne sait même pas sur quoi porte la question...
![Doctor :doctor:](./images/smilies/doctor.gif)