Tchouil s'agit principalement de traitement massif de données et d'en sortir un pattern.
Pas tout à fait. Ca, c'était le rôle essentiellement du data mining et des algorithmes classiques. En passant aux réseaux neuronaux, on est toujours dans un traitement potentiellement massif de données (il est surtout massif pour l'entraînement, d'ailleurs
) mais ce n'est pas un simple pattern qui est sorti (ou même quelque chose qui s'en approche), mais bien une approximation d'une fonction objectif quelconque (même si 90% des usages classiques des RNN concerne de la classification).
L'autre grande différence aussi par rapport aux approches plus "classiques", c'est la "souplesse" des réseaux même si ça peut vite conduire à des catastrophes en terme de perfs (qualitatives, surtout). Tu peux à peu près balancer n'importe quoi en entrée, même si c'est une structure à dimension variable (en gros, tu la convertis vers une dimension fixe et le réseau "apprend" à ignorer les "vides"), idem pour la sortie. En gros, c'est une artillerie lourde que tu peux sortir assez facilement pour plein de problèmes (et même pour de nombreux problèmes qui mériteraient d'être abordés avec quelque chose de moins lourds, plus spécifiques et surtout plus efficaces. Quand le buzz autour des RNN retombera un peu, je suis sûr qu'on va avoir une dichotomie plus marquée dans les usages des RNN que ce qu'on a maintenant, ou on l'utilise à toutes les sauces).