Se connecter

Informatique

Programmation

Sujet : L'IA est aussi efficace que les humains pour :
1
Pseudo supprimé
Niveau 10
02 juin 2020 à 08:58:38

Transcrire un texte dicté à l'écrit ( http://2045.com/news/35208.html )

Ce qui fait gagner beaucoup de temps à beaucoup de gens.

Compter, évidemment, même meilleure, et coder.

Conduire, même sur autoroute/à grande vitesse.

Courir

Se battre

Tuer

Protéger

Et sans doute bien d'autres actions, si vous en connaissez :question:

mononokehime
Niveau 10
04 juin 2020 à 09:01:58

Tous nous dominer et nous mettre au chômage.

boucif
Niveau 24
04 juin 2020 à 09:05:40

Quand ça sera une vraie IA tu m'appelera.
Parce que s'il faut 1000 images d'un chat pour qu'un système reconnaisse un chat alors que pour un enfant en voyant seulement 2 fois un chat il saura c'est quoi.

Surtout que la tu me parles de système différent, aucune app ne fait tout ca en même temps contrairement à nous, pour moi ce qu'on appelle IA actuellement c'est juste un programme informatique un peu avancé.

blackapplex
Niveau 10
04 juin 2020 à 21:27:15

Le 04 juin 2020 à 09:05:40 boucif a écrit :
Quand ça sera une vraie IA tu m'appelera.
Parce que s'il faut 1000 images d'un chat pour qu'un système reconnaisse un chat alors que pour un enfant en voyant seulement 2 fois un chat il saura c'est quoi.

Surtout que la tu me parles de système différent, aucune app ne fait tout ca en même temps contrairement à nous, pour moi ce qu'on appelle IA actuellement c'est juste un programme informatique un peu avancé.

On fait ce qu'on pourrait appeler des "IAS", des IA spécialisées sur une tâche (et qui surpassent l'humain sur cette tâche, quelque soit le mode d'apprentissage).
L'objectif est évidemment de passer à l'AGI (IAG: Intelligence Artificielle Générale).
C'est mon projet, donc quand et si j'arrive à le faire, je t'appelerai :noel:

Hormis la liste amusante, que je ne continuerai pas parce que la flemme, les IAS ont d'autres caractéristiques que de souvent nous dépasser en score sur une tâche:
- Leur temps d'entrainement (souvent plus court que l'humain à performances équivalentes)
- Leur capacité à s'améliorer avec davantage de données
- Leur capacité à profiter d'une augmentation de matérielle (si on rajoute du cerveau à un cerveau humain, ça marche pas)
- Leur coût (autant en une fois qu'à l'usage, les IAS sont souvent moins chères)
- Leur capacité à travailler jour et nuit 24h/24
- Elles ne consomment "que" de l'électricité (pas de nourriture, pas de douche etc..)

Si une IA qui part de 0 a besoin de 1000 images d'un chat pour apprendre en 2 heures, mais qu'un humain qui part de 0 a besoin d'un livestream full-HD 200fps pendant 3ans avant de reconnaitre 50 animaux, on peut imaginer dire que l'IA est plus intéressante.

boucif
Niveau 24
04 juin 2020 à 22:37:55

Bein le problème quand même c'est que l'IA est besoin d'autant d'info pour apprendre, et aussi la puissance nécessaire compare le cerveau humain à la taille des serveurs nécessaires pour simuler un cerveau.
On est bien loin de la singularité.

Le_Tryall
Niveau 8
05 juin 2020 à 00:41:59

L'humain a eu des millions d'années d'évolution pour apprendre à reconnaître des objets/animaux. Un bébé ne démarre pas de zéro lorsqu'il commence à reconnaître son environnement, il a son bagage génétique qui fait une bonne partie du travail.

Alors si on compare, un ordinateur apprend beaucoup plus vite qu'un humain sachant que lui part de "0 années" d'évolution.

Le seul soucis, c'est qu'une IA est pour le moment incapable d'apprendre seule. Mais j'imagine que c'est qu'une question d'années avant qu'on puisse entraîner une IA à apprendre d'elle même tout un tas de fonctions cognitives propres aux humains en moins de temps, moins d'exemples et sans supervision.

lokilok
Niveau 10
05 juin 2020 à 07:07:44

Alors si on compare, un ordinateur apprend beaucoup plus vite qu'un humain sachant que lui part de "0 années" d'évolution.

Je trouve pas ça très juste comme comparaison non plus, les algorithmes derrière ont évolué, c'est pas pareil que pour les humains ?

Parce que bon, si on dit que nous ont a évolué en étant à la base un être unicellulaire tout ça on peut très bien dire que les IA ont évolué en étant à la base des mathématiques. Donc le début de l'IA serait à dater du début des maths.

blackapplex
Niveau 10
05 juin 2020 à 12:25:46

Le 04 juin 2020 à 22:37:55 boucif a écrit :
Bein le problème quand même c'est que l'IA est besoin d'autant d'info pour apprendre, et aussi la puissance nécessaire compare le cerveau humain à la taille des serveurs nécessaires pour simuler un cerveau.
On est bien loin de la singularité.

Sauf qu'un cerveau ça ne sert pas qu'à faire des choses qui nous intéresse. Et je suis perso totalement incapable de te dire si 1 neurone humain se compare à 1 neurone artificiel. Un réseau de neurones artificiels, c'est pas une vraie simulation du cerveau, c'est juste des multiplications de tenseurs. Dans le domaine de la vision on peut faire des architectures de 5 millions de paramètres (moins de neurones) qui apprennent à reconnaitre 1000 classes à 30% d'erreur en 12h sur des GPU milieu de gamme à 17 Tflops.
Les humains auraient surement besoin de quelques jours pour se souvenirs par coeur des 1000 catégories et ont de l'ordre des milliards de neurones dédiés à la vision (mais les humains savent aussi faire la cuisine).
Je précise que les 1000 classes c'est pas que chaises ou piscine mais c'est aussi des espèces d'animaux très particulières, différents poissons, différentes races de chiens etc..
Perso j'ai quand même le sentiment de comparer des choux et des salades. Le fonctionnement est pas identique. Les machines peuvent faire des choses 1000x plus vite que l'humain parce qu'elles peuvent être optimisées pour, et il y a des choses qu'elles ne savent pas faire parce qu'elles n'ont pas subit des millions d'années d'évolution et d'éducation humaine incrémentale.

Sur la quantité de données, comme j'ai dis c'est pas comparable. Quand tu fais un préentrainement sur imagenet tes temps d'entrainement en finetuning sur coco sont réduits, comprend par là que si tu fais pas partir l'IA de 0, elle sait performer très bien. Le few-shot learning a aussi fait des progrès spectaculaire, y compris le one-shot et le zero-shot learning, mais les benchmarks de comparaison sont mals faits là aussi puisqu'ils partent de 0 (équivalent humain à 0 années d'existence), plutôt que de partir d'une architecture pré-entrainé (équivalent humain d'un bébé qui a déjà vu mais sans forcément comprendre plein de choses). Et dans le traitement de texte le pré-entrainement est la norme plutôt que l'exception, et ce pré-entrainement permet aux modèles de dépasser là encore les capacités humaines (les modèles que j'entrainais sur des tags de texte faisaient potentiellement moins d'erreurs que les taggeurs, oui c'est possible).
Tiens si tu veux regarder le SOTA en 1 shot learning: https://paperswithcode.com/sota/few-shot-image-classification-on-mini-1 , si t'analyses les choses avec une vision de 2018, tu vas êtres surpris. En 2018 le SOTA était à 50% de précision, en 2020 on est à 80% (et ce ne sont que les papiers déjà publiés). 1 shot learning ça veut dire que tu ne vois l'élément à apprendre qu'UNE fois.

Quand un humain voit quelque chose, il met du temps à le comprendre, il faut qu'il réfléchisse un peu, même s'il voit peu d'exemple, il fait du qualitatif on va dire. Les algorithmes eux ne fonctionnent pas comme ça, ils comprennent instantanément la chose (puisque la backprop s'effectue en une fois), mais ils ne la comprennent qu'un tout petit peu à chaque fois qu'ils la voient, donc ils ont besoin de quantitatif. Donc là encore j'ai du mal avec la comparaison, c'est pas le même fonctionnement. Quand ça fonctionne pas pareil, on peut pas conclure sur la capacité à faire la même chose. C'est comme dire qu'un hélicoptère ne peut pas voler parce qu'il n'a pas d'aile. Ce qu'on peut dire c'est qu'on soit pas sûr que les algos d'IA actuels aient une hélice.

Parce que bon, si on dit que nous ont a évolué en étant à la base un être unicellulaire tout ça on peut très bien dire que les IA ont évolué en étant à la base des mathématiques. Donc le début de l'IA serait à dater du début des maths.

En fait pour remettre du sens dans la comparaison. Un cerveau humain est un modèle issu de millions d'années d'un processsus d'algorithme génétique. Une fois qu'il est reconçu, son architecture se modifie un tout petit peu, mais la valeur de ses paramètres change énormément pendant 10 à 20ans, puis change plus progressivement.

Un cerveau machine (réseau de neurone artificiel) est un modèle issu d'une dizaine d'années d'un processus analytique fait par le cerveau humain (vu que le boum date de 2010 grosso modo). Une fois qu'il est reconçu, son architecture dans la grande majorité des cas ne se modifie pas, et la valeur de ses paramètres change énormément pendant X heures/jours/semaines avant d'être figée sur la tâche à traiter.

Donc pour comparer l'apprentissage, faut bien partir de la naissance de l'humain et du début d'entrainement du réseau de neurone, sur ça il n'y a pas vraiment de doutes.
Et pour comparer l'architecture, faudrait limite partir du début de la vie pour les humains, et pour les machines on peut imaginer partir du début de l'électronique. C'est pas très important en fait, cette dernière comparaison est pas très intéressante en pratique, ça intéresse pas grand monde de dire "ok, pour qu'on soit équitable, va falloir qu'on fasse progresser les architectures d'IA pendant des millions d'années parce que c'est le temps que nous en tant qu'humains nous avons eu".
D'autant plus que les IA ne progressent pas seules, on est continuellement à la manette, de façon plus ou moins proche. On fait aussi des NAS (Neural Architecture Search), c'est à dire qu'on lance plusieurs architectures qui se créent automatique à l'infini, on regarde laquelle est la meilleure, et on garde la meilleure. Dans la Science-Fiction ça peut correspondre à "les IA apprennent toutes seules" ou "les IA apprennent à apprendre". Dans la pratique c'est une façon comme une autre d'améliorer les performances, ces méthodes fonctionnent (en 2018~2019 t'as eu beaucoup de NAS qui étaient SOTA), je l'ai fais, c'est efficace, mais autant que des méthodes qualitatives où des humains se creusent les méninges pour proposer de meilleures architectures.

Le processus c'est: Un humain propose une nouvelle archi (+x%), un autre la met en modulable dans un algo NAS (+x%), un autre propose encore une nouvelle archi (+%) etc.. Au vue des l'évolution des perfs on seuillera d'ici 5ans sur les taches de bases je dirai, ce sera surement un NAS qui concluera la course mais ça change pas grand chose. Je parle pas que du score absolu mais surtout du compromis score/nb_parametre/nb_opération_de_calcul. Moi ce qui m'intéresse c'est surtout ce compromis, et le temps d'entrainement. En pratique on s'en fiche qu'une architecture soit géniale s'il faut 100 GPU pour l'entrainer, ça c'est le délire de Google & co. C'est pas utilisable en pratique, c'est coûteux, ça permet de gagner 0.1% et le lendemain ils seront battus par une équipe qui aura trouvé une nouvelle archi sur 4 GPU donc c'est en général du bullshit pour les gens qui ont beaucoup de frics et qui ont la flemme de réfléchir. Si t'as 100 GPUs, vaut mieux payer 20 chercheurs que 2000 GPUs. L'avantage de Google & co c'est qu'ils se posent pas la question, ils font les deux, et même en faisant ça ils restent à l'état de l'art 6 mois max.

1
Sujet : L'IA est aussi efficace que les humains pour :
   Retour haut de page
Consulter la version web de cette page