Les parties suivantes ont été déplacées sur cette page
Les parties suivantes ont été déplacées sur cette page
Au sujet de cette page, voir le tout dernier
sondage représentatif par la méthode des copains
de RogueESR
Pour une perception équilibrée, consultez aussi le
rapport des grosses têtes de l'Inspection Générale sur le pilotage et la maîtrise de la masse salariale des universités.
Les intérêts catégoriels concernent, dans le monde académique comme ailleurs dans la société, différents aspects de la position de la personne dans le champ social, où se tissent des solidarités de groupe. Parmi les ressorts puissants de la distortion de la réalité par les scientifiques est l'identité de groupes comme des disciplines scientifiques, des communautés scientifiques de différentes granularités, des types de recherches (expérimentale vs théorique, fondamentale vs appliquée), des organisations (laboratoire, EPST), etc. Ces domaines de travail du scientifique sont en concurrence les uns avec les autres pour tous types de resources et moyens, ce qui donne lieu à des rapports de pouvoir omniprésents, sauvages, et aussi tabous.
Les universités sont donc traversés par des oppositions symboliques identitaires, dont beaucoup ont le caractère binaire typiquement associé à la dissociation psychologique, qui donne lieu à des débats polarisés et stériles, et à des stratégies guerrières d'obstruction et de destructions gratuites. On peut noter :
On retrouve évidemment les mêmes oppositions et tensions entre responsables de formations et responsables recherche, avec, notamment, en amont de la vague d'évaluation, les directeurs des gros laboratoires qui pèsent dans les réunions sur les maquettes de formations, pour éviter que leurs laboratoires ne se retrouvent "en apesanteur", sans avoir de formation de licence ou master pour entretenir les flux dans les écoles doctorales.
Pour la survie ou le développement d'une thématique de recherche, il y a deux nerfs de la guerre :
Pour ajouter une couche d'irrationnel, les EPST et la gouvernance envoie des injonction de prendre "le meilleur", ce qui n'est généralement pas défini rationellement dans un recrutement multi-critères. Du coup, on prends le plus matheux lunaire (c'est forcément le meilleur...).
Références :
Exemple de gâchis pour un recrutement de fonctionnaire de rang B
qui retombe sur les étudiants
(Pour 30 à 40 ans, voir la grille de salaire)
Les filières de master recherche peau de chagrain, le sentiment de décrochage technologique non verbalisé et tabou, la culpabilité face à la situation de la jeunesse et au chômage, génère une anxiété mellée d'un sentiment d'acculturation. Tout celà conduit à des stratégies de défense violentes, à la recherche de bouc-émissaires, à une idéalisation du passé, et à un repli identitaire teinté de prosélytisme.
La philosophie des Très Grandes Infrastructures de Recherche (TGIR) au CNRS postule que l'excellence de niveau mondial repose avant tout sur des moyens extrèmement coûteux pour acquérir des données.
Mon point de vue est que les efforts déployés pour exploiter correctement ces données et pour en tirer le meilleur parti sont ridiculement sous-dimensionnés par rapport au coût d'acquisition des données, sans parler de la piètre qualité du logiciel développé.
Je pense qu'il faudrait geler les investissements dans ces TGIR, et entreprendre de développer le logiciel permettant l'exploitation optimale des installations existantes, notamment par la réalisation de l'interopérabilité logicielle entre toutes ces données. Le gruyère coûte horriblement cher, alors que les trous sont beaucoup plus gros que le fromage...Voici quelques extraits d'entretiens avec René Thom. Vous pouvez consulter l'intégralité du documentaire. Les extraits parlent d'eux mêmes. Si je devais l'écrire, j'en ferais la transcription littérale.
Video 1. René Thom sur l'entreprise "à son avis désepérée"
de la quête de l'observation de particules d'énergie toujours plus élevées
en physique
Video 2. René Thom sur l'inertie sociale en socio-épistémologie"
et le lobby des expérimentalistes (CERN, ITER)
Référence : Thomas S. Kuhn, "The Structure of Scientific Revolutions",
International Encyclopedia of United Science
Video 3. René Thom sur son opposition au préalable expériemental
et son idéal de recherche de modèles explicatifs et descriptifs par l'herméneutique
Video 4. René Thom sur la théorie des catastrophes :
principe explicatif et descriptif de l'événement instable en théorie des systèmes
La Loi relative aux Libertés et Responsabilités des Universités (LRU) a profondément transformé la gouvernance des universités en France. Notamment :
Or, s'il y a un motto qui revient sans cesse dans le discours universitaires, c'est "il nous faut plus de postes !!!". Mais il y a aussi : "Nous sommes submergé(e)s de travail subalterne comme des tâches de secrétariat".
Mon point de vue est que l'aspect "responsabilité" a été oublié, non pas par manque de liberté ou de verticalité, mais par l'inconscience, le nombrilisme, et le court termisme de la base, jusqu'aux sommets des gouvernances.
Un des éléments qui contribue fortement à l'inertie du système universitaire, sont le mode de représentation dans les conseils, et la verticalité.
La verticalité implique que les grandes orientation sont prises par des seniors, qui ont fait leur thèse il y a vingt à trente ans, puis, après avoir fait le necessaire pour passer professeur ou directeur de recherche, ont accumulé les responsabilités administratives et collectives.
Pour ce qui est des thématiques à privilégier, rien de mieux que les "thèmes éprouvés" du bon vieux temps, "quand on pense qu'il y a vingt ans ça n'était pas possible", ou encore, "les étudiants ne sont plus ce qu'ils étaient"... On entends aussi "wikipédia c'est pas toujours fiable, hein... Il faut faire attention !" et autres idées reçues qu'on entendait dans les premières années d'existence de Wikipédia, où les intellectuels publiaient des colonnes du genre "ça ne vaudra jamais un bon bouquin..." ou "j'aime le contact avec le papier ; ça me rapproche de la nature..."
L'autre facteur puissant de l'inertie des thématiques de recherche est la représentation proportionnelle dans les conseils.
Comme l'explique le rapport sur la prise en compte des classements internationaux dans les politiques de site par l'Inspection générale de l'Administration de l'Éducation nationale et de la Recherche :
"au début des années 2010, suite au rapport Juppé-Rocard, le Commissariat général à l’investissement a lancé les appels à projet Idex, puis Idex et I-site, qui participent des programmes d’investissements d’avenir (PIA) et visent à faire émerger en France « cinq à dix pôles pluridisciplinaires d'excellence (...) de rang mondial (...) sous la forme de regroupements territorialement cohérents... »"
On trouve encore :
"Les classements se sont développés à partir du début des années 2000 dans un contexte de mondialisation de la formation et de la connaissance dans lequel la relation entre les établissements est essentiellement basée sur la concurrence (pour attirer et sélectionner les meilleurs enseignants et les meilleurs étudiants, pour proposer des droits d’inscription en rapport avec l’activité et la performance des établissements, pour lever les fonds auprès des autorités publiques et des entreprises...). Dans ce paysage de concurrence, les classements internationaux et nationaux prennent naturellement une grande importance; ils jouent pleinement leur rôle « d’effet signal » en contribuant à accroître l’information de l’ensemble des parties prenantes."
Là encore, au delà de la question du regroupement des universités au niveau des sites géographiques, qui fait sens pour éviter les stratégies d'opposition au détriment des synergies, la notion d'excellence issue des ces incitations repose sur une concentration de moyens sur quelques pôles, avec une rhétorique contre la "saupoudrage", concevant l'excellence comme un gigantisme permettant la visibilité mondiale en termes d'indicateurs, à l'évidence au détriment des intérêts, y compris des intérêts sociaux économiques, des territoires. Ces décisions sont prises par quelques-uns, Élites Académiques, qui sont générallement issus des pôles d'excellence probables, dans les grandes métropoles.
On perçoit aussi l'idée que ces pôles d'Exxcellence, pour pouvoir compéter dans cet environnement challengeant, doivent envisager d'aligner leurs droit d'inscriptions sur leurs alter Ego qui font le top de palmarès comme le classement de Shanghai.
Video 5. BFM Business : Les Résultats du Classement de Shanghai 2020
Interview de Frédérique Vidal, Ministre de l'Enseignement Supérieur, de la Recherche et de l'Innovation
Le discours officiel sur les incitations, au sein des EPST, porte sur des notions éminemment qualitative d'Exxcellence et d'Originalité, mais dans les faits, l'Exxcellence s'évalue par la taille, l'originalité par le coût prohibitif des équipements, l'Exxcellence des organismes par des indicateurs bibliométriques bêtement quantitatifs, et les incitations sont, objectivement, à privilégier la quantité sur la qualité.
D'une part, les palmarès affichés par des organismes comme le CNRS mettent en avant des indicateurs comme le Nature Index, qui sont des dénombrements bêtes et méchants de publications, éventuellement pondérés par des facteurs d'impact.
Les facteurs d'impact reflètent des nombres de citations moyens par article pour les différents supports de publication, dont on observe que les sommets sont atteints, non pas pour les articles à forte originalité de recherche de long terme, mais par les publications dont les mots clés font la une des grands médias, éventuellement suite aux éructations de parvenus californiens cherchant à faire le buzz et attirer les investisseurs, sur la base de prospectives socio-économiques dont les fondements scientifiques sont sujets à caution.
Les courbes et graphiques sur le nombre de publications, ainsi que l'habitude, depuis quelques années, de voir les doctorants sortant des Écoles Normales Supérieures avec une tentaine de publications (devenu condition nécessaire pour un accès méritocratique au poste de chercheur à temps plein et à vie au CNRS), ne peuvent qu'interroger sur le sens de cette approche stakhanoviste de la qualité et de l'originalité dans la recherche scientifique. Le rapprochement avec la crise de la reproductibilité et les dérives de la production semi-automatique d'articles scientifiques en IA s'impose.
Le rapprochement, enfin, avec les problèmes récurrents de manque de moyens, notamment pour les déplacements en conférence, ou avec la dénonciation habituelle du racket par quelques éditeurs dominants, s'impose également.
La lecture d'un échantillonage représentatif des publications de chercheurs du CNRS achèvera de convaincre le lecteur que nous avons affaire à une entente sur la qualité pour optimiser la quantité, aux dépends des financeurs et contribuables. Malheur à celui qui démontre que l'on peut faire de l'excellente qualité et originalité à vil prix ! Il est impitoyablement éliminé...
Les proportions actuelles des disciplinent pèsent fortement sur la composition des différents conseils, ce qui influence les orientations de manière déterminente, et tend à renforcer les déséquilibres. Voir, par exemple, la composition du Conseil d'Administration du CNRS.
Un coup d’oeil à l’organisation en collegiums de mon université permet de se faire une idée de la masse relative des technologies de l’information dans l’université. Probablement moins de 5 % des chercheurs et enseignant-chercheurs sont spécialistes d’informatique (ils forment un sous-ensemble minoritaire du Collegium "Sciences pour l'Ingénieur", qui est lui-même le plus petit), mais parmi ceux ci, une grosse proportion ne connaît rien au développement logiciel ou aux compétences réseaux/sécurité qui sont indispensable pour s’adapter sur le plan économique ou pour notre souveraineté.
S’agissant de la communication, nous avons un bel exemple dans le numéro 2 de la gazette recherche « Le Lab », où le numérique est particulièrement à l’honneur (par rapport à l’habitude…). Comme l’explique l’édito, le but est de « rendre accessible l’activité des laboratoires de recherche de l’Université Clermont Auvergne à partir de thématiques scientifiques à forte résonance sociale, économique ou culturelle ».
On y trouve un dossier sur le travail à l’heure du numérique. Deux lignes sont consacrées à l’évocation d’un projet commun labo-entreprise avec Michelin, mais le coeur du sujet est l’adaptation de l’humain à un monde numérique créé ailleurs. Sans nier la pertinence de la réflexion sur l’impact de l’environnement numérique et connecté sur l’humain (qui est tout de même largement abordée par la presse grand public...), notamment au travail, où est la création de valeur liée au développement des technologies en lui-même ? La réponse est « ailleurs »…
Voir aussi ma page dédiée au sujet de l'Enseignement Supérieur, Chômage et Informatique.
Les projets à gros budget dans le domaine du calculs qui sont les plus visibles des financeurs et décideurs politiques sont portés par les physiciens qui réalisent, à la fois, une usurpation d'identité scientifique, et une allocation inadaptée des moyens du fait de leur culture axée sur l'expérimentation à base de gros équipements.
C'est une démarche analogue à l'usurpation d'identité réalisée par Cédric Villani, avec le même type de conséquences :
Il en résulte des manquements graves et une inéfficacité de la dépense au regard des enjeux sociétaux, de part :
Voici un exemple, avec le projet AuverGrid, piloté par le Laboratoire de Physique de Clermont (anciennement Laboratoire de Physique Corpusculaire) et l'Institut national de physique nucléaire et de physique des particules (IN2P3) du CNRS.
La physique des matériaux et l'électronique permet depuis longtemps de créer les composants hardware (matériel informatique). La loi de Moore a permis jusqu'à maintenant une miniaturisation croissante des composants, qui permettait une accélération régulière des capacités de calculs (à prix constant), jusqu'à la première décénie du XXIe Siècle. Or, la miniaturisation des composants électroniques a depuis une dizaine d'année atteint une limite (appelée le Mur de la loi de Moore), qui est liée au passage à une échelle où les transistors atteignent une taille de quelques dixaines d'atomes.
La mécanique quantique, est un domaine de la physique qui étudie les propriétés de la matière et de l'énergie à l'échelle des particules subatomique. Elle se distingue en celà de la physique classique et de la chimie qui se placent à des échelles supra-atomiques, et qui obéissent à d'autres lois, suivant des modèles simplifiées valables à ces échelles. (notons que la relativité est un autre domaine de la physique, lorsque les vitesses, cette fois, dépassent certaines limites.)
Pour miniaturiser davantage les composants électroniques, il faudrait maîtriser la matière à une échelle quantique, ce qui nécessiterait des avancées avec un verrou technologique, et sur lequel tous les grands fabricants de hardware doivent veiller et faire des recherches, pour le cas (à ce stade hypothétique), où des composants électroniques plus performants résulteraient de ce type de travaux.
Un calculateur quantique est un dispositif physique qui vise à effectuer des algorithmes, dont le résultat présente un taux d'erreur non nul, avec des éléments d'information appelés qubit, qui, du point de vue des sciences de l'information, a l'ambition de mettre en oeuvre de l'algorithmique non déterministe.
Leur idée serait de résoudre des problèmes NP-complets sur données de tailles significatives (nombre de qubits), qui sont inaccessibles pour les ordinateurs classiques. Avant de donner la parole aux spécialistes, quelques observations du point de vue des sciences de l'information :
Références :
Heuristic Algorithms for NP-Complete Problems
NP-Complete Problems and Heuristics