Épistémologie et Sciences de l'Information

Sommaire :

  1. Tropisme Mathématique, Tradition Aristocratique et Snobisme
  2. Qu'est-ce qu'une Discipline Scientifique ?
  3. Sciences de l'Information : Objet, Modèles, Méthodes
    1. Objet des Sciences de l'Information
    2. Modèles et Structures de Données
    3. Méthode de Traitement de l'Information
    4. Modèles Objets
  4. Validation et Fiabilité en Sciences de l'Information
    1. Principes Généraux de la Validation
    2. Crise de la Reproductibilité de la Science Contemporaine
    3. Problèmes de Reproductibilité Inhérents au Calcul Flottant
    4. Le Cas des Algorithmes Randomisés
  5. L'Intelligence Artificielle , une Discipline Scientifique ?
    1. Intelligence Artificielle, Épistémologie & Différence Développement/Recherche
    2. L'Intelligence Artificielle Présentée par Cédric Villani
  1. Somnambulisme du Professeur Tournesol : 1er Prix a été déplacée ici
  2. Inerties sociales en socio-épistémologie (René Thom) a été déplacée ici

1. Tropisme Mathématique, Tradition Aristocratique et Snobisme

L'ensemble de la communauté scientifique, digne héritière d'une longue tradition artistocratique, a consiédéré historiquement que l'informatique ne relevait pas de la science, que les seuls vrais concepts sont mathématiques (le reste étant outillage et tambouille délégable à des techniciens et ingénieurs), et la démarche dans les autres sciences est principalement expérimentale, l'excellence venant avant tout d'équipements pharaoniques avec un staff pour acquérir des données.

Il ne s'agit pas, contrairement à ce qui est systématiquement opposé aux recherches technologiques, d'un court-termisme, par opposition à la "Science Fondamentale qui se situe sur un temps long".

  1. D'une part, le logiciel en tant qu'objet d'études scientifique doit chercher à se dégager du nez dans le guidon qui caractérise actuellement le point de vue scientifique sur le logiciel ;
  2. D'autre part, le logiciel transforme l'ensemble des activités humaines et ouvre de nouvelles possibilités, dans la recherche fondamentale qui se situe sur un temps long comme ailleurs.

Les spécialités comme la bioinformatique existent, mais on constate que les pratiques dans les laboratoires de recherche, en matière d'ingénierie logicielle, ont trois décénies de retard sur les pratiques du privé. Une entreprise avec de telles pratiques aurait coulé depuis longtemps ; les universitaires se lamentent du manque de moyens et conspuent le gouvernement et les réformes successives.

Malheureusement, celà crée aussi une inadaptation fonctionnelle des universités par rapport à des responsabilités sociétales essentielles, pour notre souveraineté et pour fournir les clés vers l'emploi, la liberté, et la réponse aux défis auxquels fera face notre jeunesse.

Enfin, les orientations pronées par les scientifiques de renom influents n'augurent rien de bon. En particulier, le rapport de la mission sur l'Intelligence Artificielle dirigé par Cédric Villani, véritable OPA hostile sur les communautées informatiques par les communautés mathématiques, représentent un bon en arrière de plusieurs décénies annulant une relative autonomie de l'informatique durement conquise.

Les communautés informatiques se montrent hélas complaisantes, notamment parce que l'apprentissage automatique est une solution de facilité suivant le paradigme publish or perish qui fait des ravages. Celà évite surtout toute remise en cause et interrogation sur le décrochage technologique des universités et des EPST sur les compétences liées à l'Ingénierie Logicielle.

Références :

Pourquoi le rapport Villani sur l'IA qui a fait tant de bruit est ignorant et faux
(Consultez le rapport ou les morceaux choisis affectant la dépense publique)
IA, Mathématiques, et Start-up Nation, Mythes et Réalité

Commentaires et références au sujet du rapport de l'INS2I sur la conjoncture
et ses conseils de présentation du logiciel

La France se dote d'un nouveau supercalculateur : à quoi va servir Jean Zay ?
Left wing activists' ideology in French universities


2. Qu'est-ce qu'une Discipline Scientifique ?

Une discipline scientifique a pour objectif d'étudier une certaine partie du monde réel, appelée objet, qui se laisse approcher par un ensemble de méthodologies pour formuler des énoncés, des méthodes, ou des modèles fiables, avec une valeur explicative ou prédictive, qui peuvent conduire (ou non) à des applications (comme des méthodes d'ingénieries, des méthodes thérapeutiques, des observations dans d'autres sciences, ou trancher des débats stériles dans la société, prévoir et estimer, etc.).

Un résultat scientifique peut donc être une proposition, un modèle (souvent mathématique), ou une méthode. Un tel résultat peut être considéré comme fiable dans la mesure où :

  • L'objectif, la nature et les limites du résultat sont rigoureusement spécifiés. Par exemple, pour une méthode qui va s'appliquer sur des instances d'un problème, les hypothèses que doivent vérifier les instances doivent être définies de manière opérationnelle (c'est à dire qu'il est possible de déterminer si l'instance satisfait les hypothèses), et le résultat de la méthode doit être clairement spécifié, dans certaines limites d'incertitudes qui sont estimées ou majorées.
  • Le résultat doit être validé par une démonstration. Reprenant l'exemple d'une méthode, on va démontrer que l'on peut mettre en oeuvre la méthode sur les instances satisfaisant les hypothèses (éventuellement en admettant un taux d'erreur, non nul mais majoré, par exemple par une statistique représentative sur les instances), de manière à vérifier que le résultat soit correct (dans la marge d'incertitude).
  • La démonstration du résultat se fait par des principes méthodologiques propres à la discipline. On distingues deux grandes classes de méthodologies :
    1. Les démonstrations formelles, par un raisonnement logique sur les définitions et spécifications, en s'appuyant éventuellement sur des résultats déjà validés (ou des axiomes et postulats) ;
    2. Les démonstrations empiriques, par l'observation d'un certain nombre d'instances représentatives pour la méthode ou le modèle étudié.
  • La démonstration doit pouvoir être vérifiée indépendemment par les pairs, soit par la relecture de la démonstration formelle, soit par la reproduction du protocole d'observation ou d'expérimentation.

S'agissant des postulats, dans des disciplines comme la physiques, ils s'appliquent à un cadre (échelle marcoscopique, microscopique, ou nanométrique, intervalles de vitesse, etc.), et sont parfois remis en cause par de nouvelles observations, obligeant à un changement de modèle.

La possibilité de s'appuyer sur des résultats ou des méthodes précédemment validées n'est viable que dans la mesure où les validations sont absolument fiables, faute de quoi, on construit un chateau de cartes branlant.

Exemple. La psychologie et les neurosciences ont un objet proche : comprendre les mécanismes et déterminants de la pensée, des phénomènes nerveux et des comportements (par exemple humains), mais des approches méthodologiques différentes. Ce sont donc des disciplines distinctes qui ne conduisent pas aux mêmes types de résultats ni aux mêmes applications.

3. Sciences de l'Information : Objet, Modèles, Méthodes

3.a. Objet des Sciences de l'Information

Je cite ici à nouveau mon contre-rapport sur les conclusions de la mission Villani sur l'IA :

"Rappelons que les Sciences et Technologies de l’Information (STIC) représentent une discipline d’apparition récente, dont on peut reconnaître largement au mathématicien Alan Turing la qualité de fondateur et premier représentant. Cette Science a un objet qui lui est propre, l’Information, maladroitement approché par l’antique racine numer, qui porte en germe des réductions conduisant à des conceptions erronées et à de mauvaises heuristiques.
...
Je me permets aussi d’avancer que le refus manifeste de considérer le logiciel comme un objet de Science – objectivé par son ellipse – relève du préjugé de classe, en raison de la proximité supposée de ce dernier avec la machine. Or on observe que le (bon) logiciel recèle dans son architecture des propriétés d’une abstraction extrême, difficiles à appréhender scientifiquement autant qu’à enseigner, qui commence par la notion de patron de conception (Design Pattern). Ceci constitue une frontière scientifique passionnante, massivement ignorée et snobée par nos chercheurs, qui abandonnent complètement cette exploration au secteur privé, attitude qui conduit implacablement à la mise au rebut de notre recherche publique si rien n’est fait pour corriger la trajectoire.

A contrario, pour les Sciences de l’Information, c’est le « nombre réel », jadis introduit pour la simplicité des modèles – mêlée de fascination contemplative – qu’il présentait pour les pionniers de la Physique, qui relève de l’infâme bricolage et peut faire l’objet d’un rejet, parce qu’il ne constitue généralement pas une information. L’universalité du nombre réel dans la modélisation scientifique avait pour la première fois été remise en cause par Albert Einstein en 1905, dans un article sur l’effet photoélectrique, qui contribua largement aux révolutions sur les concepts de matière et d’énergie, conduisant à la conception des composants électroniques qui aujourd’hui supportent la mise en œuvre technologique des traitements de l’information. Les concepts mathématiques dont la fondation est essentiellement antérieure à Alan Turing, qui sont étroitement liées au nombre réel, sont en réalité mal adaptés à ces traitements parce que les opérations afférentes impliquent une perte d’information (au sens de Claude E. Shannon). On ne peut donc pas considérer l’emploi des technologies correspondantes comme un présupposé pérenne.

3.b. Modèles et Structures de Données

La mise en oeuvre des traitements de l'information est ultimement réalisée sur des ordinateurs (ou autres matériels comprenant de l'informatique embarquée), dans lesquels, jusqu'à présent, la représentation de toute l'information pour le stockage en mémoire se fait dans un format binaire.

Pour qu'un modèle en sciences de l'information se prète à une bonne mise en oeuvre, les objets modélisés doivent donc être ultimement représentés dans une format de codage binaire. Par exemple :

  • Codage des nombres au format binaire (idéalement par combinaisons de nombres entiers ou dyadiques).
  • Codage de symboles par des codes binaires, comme pour les codes Unicode ou pour le calcul formel.

Une structure de données est un regroupement de données binaires qui sont nécessaire pour coder en mémoire l'état d'un système, qui peut être tout ou partie des données d'une application en mémoire, ou encore des instances de problèmes auxquelles on applique des méthodes de traitement, etc.

3.c. Méthodes de Traitement de l'Information

Une méthode de traitement de l'information va admettre des instances, codées au format binaire, en entrée, et produire un résultat, codé au format binaire, en sortie (voir la notion d'entrées-sorties).

  1. Les instances admissibles par la méthodes doivent être spécifiées de manière opérationnelle, que qui permet de tester si les arguments effectifs lors de l'exécution sont des instances admissibles, et le cas échéant de gérer une erreur.
  2. Les attentdus du résultats de l'exécution de la méthode doivent être spécifiés rigoureusement
  3. La méthode doit être validée par une démonstration.

Les spécifications d'une méthode de traitement, ainsi conçues, s'appellent des spécifications d'interfaces de programmation, telles qu'on les trouve généralement dans les documentations d'API.

3.d. Modèles Objets en Sciences de l'Information

Un modèle objet est une surcouche logicielle sur des structures de données qui encapsule ces données, en permettant de les manipuler et d'y accéder par une interface de classe. La classe représente une catégorie d'objets, avec une structure de données pouvant représenter différents états. L'interface de classe comporte simplement un certain nombre de méthodes pour manipuler les données, et fournit généralement un accès partiel aux données via la notion de visibilité des données.

L'un des intérêts du modèle objet est que l'interface d'accès et de manipulation peut être conçue pour garantir un certain nombre d'hypothèse sur l'état. Chaque méthode de l'interface devra alors préserver ces hypothèses. L'utilisateur de la classe (un développeur) ne pourra donc pas amener le modèle objet dans un état incohérent avec les hypothèses. Ceci pemet d'atomiser et d'encapsuler le problème de la garantie d'hypothèses sur les données, comme des hypothèses d'instances en argument de méthodes, qui est alors circonscrit dans l'implémentation de la (ou des) classe(s) du modèle.

Un autre intérêt du modèle objet est la concision des interfaces, qui réduit la fatigue cognitive des développeurs, facilite les collaborations et le travail en équipe, et augmente la productivité. L'utilisateur d'une classe ou interface n'a pas besoin de connaître la tambouille interne, mais seulement les spécifications des méthodes de l'interface.

Les partons de conceptions les plus simples concernent des cas particuliers de conception d'une classe. Un objectif général des patrons de conception est le découplage des différentes parties du code, permettant à un développeur d'intervenir sur un module sans se préoccuper des autres modules, sinon par le respect des spécifications des interfaces de communications entre modules (méthodes appartenant à un module qui sont invoquées dans l'autre module).

La notion de polymorphisme permet de distinguer différentes sortes d'objets qui admettent des interfaces (ensembles de méthodes) répondant aux mêmes spécifications, mais dont la mise en oeuvre est réalisée par un traitement différent. Par exemple, on peut définir un objet abstrait "forme géométrique", avec une méthode "dessiner", dont la mise en oeuvre pour une forme "cercle" ou une forme "triangle", ne sera pas réalisée par le même algorithme. Le code client, qui utilise ces interfaces, peut alors manipuler des "formes géométriques" et les dessiner, sans se préoccuper de savoir si ce sont des cercles ou des triangles.

On appelle un modèle d'application un modèle objet encapsulant toutes les données de l'application. Des patrons de conception comme le modèle-vue-contrôleur permettent de séparer dans des modules logiciels distincts le modèle, les événements survenant sur ce modèle (actions d'un utilisateur) qui vont le modifier, et la présentation de ce modèle (affichage à l'écran) qui doit être mise à jour suite à modification du modèle.

Dans une conception d'Interface Homme Machine ([respectivement] une architecture client-serveur) contemporaine, différentes parties de la vue (fenêtre graphique de l'application) ([respectivement] du modèle de données géré par le serveur), vont être représentés par des modèles indépendents, qui se manipulent et se mettent à jour indépendament les uns des autres dans une architecture milti-tiers

4. Validation et Fiabilité en Sciences de l'Information

4.a. Principes Généraux de la Validation

Les Sciences de l'Information admettent deux principes de validation :

  1. La validation par raisonnement mathématique. À la suite des travaux d'Alan Turing, l'information et les algorithmes peuvent être définis mathématiquement. Leurs performances et les ressources qu'ils nécessitent sur des entrées données peuvent être estimées ou majorées. Certains résultats de complexité ou de décidabilité, dits négatifs, établissent l'impossibilité de résoudre certains problèmes (en un temps donnée ou dans un espace mémoire donné). On peut donc raisonner mathématiquement sur l'information, en particulier les nombres entiers, pour démontrer des résultats scientifiques concernant des traitements de l'information. On peut également raisonner sur les spécifications des objets, méthodes, et interfaces, ainsi que sur leurs hypothèses invariantes.
  2. La validation expérimentale. Le fonctionnement et l'effectivité ou l'efficacité d'une méthode de traitement de l'information peut être établi expérimentalement, en observant que "ça fonctionne" sur une certain jeu de données. Je jeu de données étant intrinsèquement fini, il faut un raisonnement pour extrapoler avec des hypothèses sur les données. On peut, par exemple, montrer que l'échantillon d'instances testées estreprésentatif et utiliser l'inférence statistique. En outre, comme dans les autres sciences expérimentales, les expériences doivent être reproductibles.

Dans tout les cas,

  • Il faut spécifier rigoureusement ce que doit faire la méthode (ses attendus et ses limites), pour pouvoir dire si "ça fonctionne".
  • Un raisonnement mathématique sur les nombres réels n'est généralement pas transposable pour valider un traitement de l'information, car les nombres réels ne sont généralement pas des informations.
  • Il faut utiliser des méthodes de conception logicielle rigoureuses pour garantir la reproductibilité, notamment lors d'un changement de version du logiciel.

La validation systématique de toutes les méthodes d'un programme ou d'une librairie par des tests s'appelle la méthodologie des tests unitaires.

Sur ces sujets, consultez le bêtisier numérique pour voir les problèmes qui peuvent se poser lorsque les logiciels ne sont pas développés rigoureusement. Voir aussi la partie sur le calcul flottant ci-dessous.

4.b. Crise de la Reproductibilité de la Science Contemporaine

Des scientifiques, dans la plupart des disciplines expérimentales, s'alarment depuis un certain temps sur une "crise de la reproductibilité", constatant l'impossibilité de fait de reproduire les résultats, pour une proportion importante des articles scientifiques, y compris dans les revues les plus prestigieuses.

Un certain nombre d'entre eux pointent du doigt un manque de rigueur, à la fois dans les méthodes numériques, algorithmiques, et la gestion du logiciel, comme un facteur très important contribuant aux problèmes de reproductibilité.

Mon point de vue est que les fondements des sciences expérimentales doivent reposer sur du logiciel qui est lui-même scientifique, suivant les principes des Sciences de l'Information. C'est une condition sine qua non pour pouvoir :

  • Spécifier rigoureusement ce que fait le protocole expérimental, ce qui est nécessaire pour la reproductibilité ;
  • Garantir la pérennité de la reproductibilité des expérience, notamment par une bonne compatibilité ascendente des logiciels lors d'un changement de version ;
  • Pouvoir reproduire les expériences avec des logiciels concurrents répondant aux mêmes spécifications, évitant l'effet "boîte noire" du logiciel dans les processus expérimentaux. En d'autres termes, les méthodes de traitement de l'information elles mêmes doivent être reproductibles, à partir de leurs spécifications, qui doivent être ouvertes (même lorsque le logiciel n'est pas Open Source).

Références :

Computational chemistry faces a coding crisis
Scientists Continue to Use Outdated Methods
AAAS: Machine learning 'causing science crisis'
The Irreproducibility Crisis of Modern Science
A reproducibility crisis? The headlines were hard to miss: Psychology, they proclaimed, is in crisis.

4.c. Problèmes de Reproductibilité Inhérents au Calcul Flottant

Les nombres dits flottants sont une représentation en mémoire d'approximations de nombre dits réels. Pour une précision déterminée par le nombre d'octets, on considère un nombre fixe de chiffres, dits significatifs, constituant la mantisse de l'écriture, et un exposant entier, positif ou négatif, qui représente un décalage de la virgule, qui change l'ordre de grandeur du nombre codé.

Il y a eu, historiquement, différentes normes pour le codage des nombres flottants, y compris des codages multi-précision. Quelles que soient les manières de coder, on constate :

  • Les nombres réels formant un continum non dénombrable, l'écrasante majorité des nombres réels ne sont pas représentables en mémoire.
  • Du fait que l'ensemble des nombres représentables n'a pas la même résolution à différentes échelles, il n'est pas invariant par des translations, et l'addition de deux nombres représentables n'est généralement pas représentable. Les opérations arithmétiques de base comme l'addition ou la multiplication donnent donc un résultat approché. Le cumul de toutes ces approximations pose des problèmes de stabilité très bien connus des numériciens pour toutes les méthodes qui calculent l'évolution d'un ensemble de données par itération.
  • Les opérations comme l'addition ou la multiplication ne sont pas associatives, ce qui signifie que l'ordre (a+(b+c) ou bien (a+b)+c) dans lequel on effectue les opérations peut changer le résultat.
  • Les opérations conduisent à une perte d'information, en ce sens que pour a et b non nuls, lorsqu'on calcule le produit p=a*b, puis on divise (par exemple) par b, le résultat p/b n'est généralement pas égal à a.

Ces problèmes ne se produisent pas avec les nombres entiers multi-précision (même si tous les réels ne sont pas représentables), ce qui veut dire que le mouvement perpétuel du calcul réversible est a priori possible avec des entiers, ce qui n'est pas possible en physique. (Voir aussi la notion d'entropie en théorie de l'information)

Ces insuffisances intrinsèques des représentations flottantes doivent conduire à des précautions extrêmes dans l'écriture des expressions algébriques, et des choix subtils d'options de compilations, pour garantir simplement qu'un même programme exécuté deux fois sur la même donnée donnera le même résultat.

La preuve expérimentale est donc extrêmement difficile à faire de manière robuste, et la moindre inattention lors des mises à jour du code peut aussi tout changer. On observe effectivement en pratique des tests expérimentaux qui fonctionnent un million de fois sur la même donnée, mais échouent la fois suivante...

Les problèmes comme le défaut d'associativité des opérations arithmétiques de base sur les nombres flottants posent immédiatement de grosses difficultés pour la validation des traitements par un raisonnement mathématique, puisque l'associativité est généralement la première hypothèse commune à toutes les structures algébriques sur lesquelles les mathématiciens raisonnent.

Références :

What Every Computer Scientist Should Know About Floating-Point Arithmetic
Some disasters caused by numerical errors
Cours sur l'arthmétique virgule flottante
par quelqu'un qui essaie de la sauver (RIP)

How Java’s Floating-Point Hurts Everyone Everywhere
L'addition des nombres réels est associative, mais l'addition des nombres flottants ne l'est pas !
Le résultat des vos opérations peut dépendre du contexte d'exécution, sauf à faire TRÈS attention !!!

4.d. Cas des Algorithmes Randomisés

Les algorithmes randomisés ont la particularité d'utiliser de l'aléatoire, pour générer des variations, ou encore pour échantilloner une probabilité, afin d'évaluer quelque chose sur des données représentatives.

L'un des arguments avancés par les bricolos universitaires (fussent-ils Excellents) pour justifier leur incompétence est que, par nature, les processus aléatoires ne peuvent pas être reproduits exactement. Il ne peut donc pas y avoir de reproductibilité.

On peut faire deux réponses :

  1. La simple. L'aléatoire, en algorithmique, résulte toujours de l'application d'un algorithme déterministe. On parle de pseudo-aléatoire. Un tel algorithme pseudo-aléatoire est initialisé par une graine. On peut spécifier une ou plusieurs graines qui ont été testées dans le protocole, ce qui permet en principe de reproduire exactement la suite aléatoire utilisée pour les tests.
  2. La compliquée. Si l'objectif est de tester quelque chose sur un échantillon représentatif, il doit être représentatif d'une probabilité qui est connue. La loi des grands nombres doit donc permettre de reproduire les expériences. Sinon, c'est que :

Dans tous les cas, si les tests ne sont pas reproductibles avec la loi des grand nombres, le protocole expérimental ne peut pas être considéré reproductible, que ce soit en Sciences de l'Information pures, ou dans une autre science expérimentale.

5. L'Intelligence Artificielle , une Discipline Scientifique ?

5.a. Intelligence Artificielle, Épistémologie & Différence Développement/Recherche

Nos universités et organismes de recherches tels que l'INS2I ou l'INSMI du CNRS affichent depuis quelques années en haut de leurs priorités l'Intelligence Artificielle, révolution scientifique dont les mathématiques seraient la substantifique moelle. Pour certain, elle serait la version contemporaine des Sciences et Technologies de l'Information ; certains l'érigent (dans leur langage) au rang de discipline.

Quelle est donc la valeur de cette nouvelle science d'un point de vue épistémologique ? Mon point de vue s'oppose à celui défendu par le mathématicien et médaillé Fields Cédric Villani, en ce que je soutiens que si l'apprentissage a aujourd'hui des applications industrielles substantielles, celles ci ne sont pas engendrées par la recherche mathématique, et le défi est celui du développement de services logiciels de masse.

Je soutiens par ailleurs que ce que Villani regroupe sous le vocable IA, dont il admet lui-même que c'est mal défini, a une valeur scientifique marginale, par rapport à l'apport des Sciences et Technologies de l'Information dans leur ensemble.

Comme je l'explique dans mon contre-rapport sur les conclusions de la mission Villani sur l'IA :

"Du point de vue de cette Discipline [les Sciences de l'Information], selon moi, le concept d’Intelligence Artificielle ne constitue pas aujourd’hui une epistemê – je veux dire par là que ce n’est pas un objet scientifique – parce que ses contours sont flous, parce qu’il n’apporte pas d’efficacité opérationnelle, et parce qu’il est lourdement chargé d’affects et tend à susciter le fantasme. La substitution du terme « apprentissage » tout au long du rapport serait plus honête, quitte à diminuer l’impact médiatique de la démarche."


On peut ajouter que le Manuel de Frascati , qui fait référence dans l'OCDE pour la définition et la comptabilisation des activités de R&D, pose, dans son chapitre 2, comme condition d'éligibilité des travaux, une incertitude fondamentale sur les techniques, et une solution qui "ne doit pas être immédiatement acessible à quelqu'un qui est parfaitement au fait des connaissances et techniques de base couramment utilisées dans le secteur considéré".

La délimitation des activités de R&D dans le domaine des développements logiciels précise, en outre, que "les progrès dans d'autres domaines découlant d'un projet logiciel n'impliquent pas qu'il y ait réalisation d'un progrès en matière de logiciels".

Ceci implique que la simple configuration ou recherche d'une variante de réseau de neurones ou autre technique similaire d'apprentissage, afin d'en faire une mise en oeuvre pour une application donnée, puis évaluer les performances par des tests et statistiques, n'est généralement pas éligible pour la comptabilisation de la R&D, suivant les normes de l'OCDE.

a) La R&D doit résoudre
une incertitude fondamentale
b) La R&D dans
les Développements Logiciel


Figure 1. Extrait du Manuel de Frascati, Chapitre 2

Voici maintenant une émission de radio sur le cas du traitement automatique des langues sur l'historique du domaine et les questions contemporaines. Voir aussi ma page (en anglais) sur la sémantique et l'apprentissage automatique.


Podcast 1. France Inter : Comment la traduction automatique
s’est-elle mise à (mieux) marcher ?

5.b. L'Intelligence Artificielle Présentée par Cédric Villani

Voyons maintenant comment Cédric Villani lui-même présente sa conception de l'IA lors d'une conférence devant des élèves de classes préparatoires aux entrées d'Écoles Normales Supérieures. Consultez l'intégralité de la conférence dont sont extraites les vidéos ci-dessous. Consultez également son rapport pour le premier ministre, produit "après consultations de centaines de spécialistes et de tous les grands spécialistes du domaine".

Video 1. Cédric Villani Définit l'IA

Video 2. Cédric Villani explique l'importance de la
Recherche en Mathématiques pour l'IA

Video 3. Cédric Villani explique la profondeur de la
Recherche en Mathématiques pour l'apprentissage en IA

Video 4. Cédric Villani explique la révolution algorithmique
créée par les mathématiques pour l'IA dans le deep learning

Video 5. Cédric Villani explique le défi du passage à l'échelle
pour que les industries européennes puissent rivaliser avec les GAFA sur l'IA

Video 6. Cédric Villani explique l'ampleur des applications de l'IA
dans les Sciences

Video 7. Cédric Villani explique les enjeux sociétaux et stratégiques de l'IA
dans les Sciences