INFORMATIQUE



Des ordinateurs
intelligents
par Yoshua Bengio

Des ordinateurs capables de lire, de reconnaître, voire d'apprendre... Sommes-nous en pleine science-fiction ? Non, plutôt au coeur des recherches de pointe en intelligence artificielle. Et ces recherches sortent peu à peu des universités, car elles connaissent d'importantes applications industrielles.

 

 

 

 



 

 

 


L'auteur

Yoshua Bengio est professeur agrégé au département d'informatique et recherche opérationnelle (IRO) à l'Université de Montréal.

Pour en savoir plus

www.iro.umontreal.ca/~lis

Apprendre et s'adapter sont des activités relativement aisées pour nous, êtres humains. Il serait très utile aux ordinateurs de pouvoir faire de même dans le cas de certains problèmes complexes. Une des branches de la recherche en intelligence artificielle vise précisément à leur donner la capacité d'apprendre. Pour ce faire, des algorithmes d'apprentissage sont développés, qui sont essentiellement des recettes suivies par l'ordinateur. En général, on tente d'enseigner à la machine comment apprendre à partir d'exemples.

Reconnaissance des formes

Au début des années 90, le groupe de recherche de AT&T sur la reconnaissance des formes et les algorithmes d'apprentissage a mis au point un système servant à la reconnaissance automatique des montants, écrits à la main, sur les chèques. L'ordinateur doit indiquer le montant qu'il reconnaît ou signaler son incapacité à le faire, auquel cas un être humain doit intervenir pour traiter le chèque. Plusieurs millions de chèques déposés dans les guichets automatiques sont ainsi traités à chaque mois par ce système.

L'algorithme d'apprentissage qui est utilisé dans ce cas provient de la recherche sur les réseaux de neurones artificiels. Cette recherche se base sur des principes de traitement de l'information inspirés du fonctionnement des neurones dans le cerveau. Ces algorithmes « apprennent » à partir d'exemples. Dans le cas cité, l'ordinateur apprend grâce à des images numérisées des montants écrits à la main. On soumet plusieurs centaines de milliers de chèques différents à l'ordinateur, en même temps que le montant qu'il devrait y reconnaître. Une fois que le système a été entraîné avec ces exemples, pour lesquels il connaît « la bonne réponse », on peut utiliser le système pour classifier de nouvelles images, pour lesquelles il ignore « la bonne réponse ».

Pourquoi utilise-t-on des algorithmes d'apprentissage? C'est que, dans plusieurs cas, on ne comprend pas suffisamment un problème pour pouvoir écrire directement un programme qui résoudrait ledit problème. Par exemple, comme on sait très bien calculer la trajectoire d'un projectile, on peut facilement créer un programme qui effectuera ce calcul. Par contre, on ignore comment les êtres humains font pour reconnaître l'écriture. Et pourtant, on l'a vu, les algorithmes d'apprentissage permettent bel et bien à un ordinateur de le faire.

Les ordinateurs généralisent

Un des avantages des algorithmes d'apprentissage est leur capacité de généralisation. Ils peuvent utiliser ce qu'ils « savent » pour reconnaître ce qu'ils n'ont jamais vu. Cette caractéristique est importante, puisqu'elle permet à l'ordinateur de distinguer un « a » manuscrit, même s'il est légèrement différent de celui qu'il connaît. Cependant, les mécanismes de la généralisation sont difficiles à appliquer, car ils sont mal connus. En plus, parmi les différentes façons de généraliser, il est impossible de dire à l'avance laquelle est la meilleure.

Les principes utilisés sont les mêmes que ceux guidant l'évolution de la science. Lorsqu'un scientifique élabore une théorie, il cherche à obtenir un outil qui lui permettra, à partir des résultats déjà obtenus, de généraliser à de nouvelles situations. Si plusieurs théories différentes semblent en accord avec les données, il choisira en général la plus simple. D'autre part, plus les résultats expérimentaux sont nombreux et précis, plus la théorie qu'il peut en tirer sera sophistiquée. Aussi, les théories scientifiques se complexifient au fur et à mesure que se réalisent de nouvelles expériences dont elles doivent tenir compte. On retrouve ces deux principes dans l'analyse des algorithmes d'apprentissage. Pour ces algorithmes, la « théorie » est une formule mathématique qui associe par exemple une lettre à une image. Au fur et à mesure que les exemples d'apprentissage s'accumulent, la formule est corrigée, c'est-à-dire améliorée, pour donner de meilleures réponses. Cela tout en gardant, parmi les formules, la plus simple de toutes.

Outre la reconnaissance des formes, les algorithmes d'apprentissage ont des applications dans plusieurs autres domaines, comme la prise de décision en finance, la découverte de nouveaux médicaments et la compression de données. En particulier, l'extraction d'informations (data-mining) des bases de données informatiques des entreprises est un domaine très actif actuellement. Ces algorithmes peuvent mettre en évidence des régularités dans les processus industriels ou dans les comportements des clients. Les compagnies qui tirent avantage de ces nouvelles technologies peuvent détecter des fraudeurs, mieux cibler leur clientèle, automatiser certains processus ou prendre de meilleures décisions.

retour vers le haut