Conclusion
Ce que l'ère de l'information nous a légué
Conclusion et ouverture vers la période suivante (2010-présent)
Nous voici au terme de soixante-cinq ans de voyage — le plus accéléré de notre traversée. Du CSIRAC de Sydney au WEIZAC de Rehovot, des ruines de Berlin aux garages de la Silicon Valley, de M-Pesa au Kenya à TSMC à Taïwan, de la conférence de Dartmouth à ImageNet — six continents, et partout le même paradoxe : des bonds par-dessus l'abîme et des chutes dans l'oubli, des innovations frugales et des projets pharaoniques, des étés d'euphorie et des hivers de désillusion.
Cette période — de 1945 à 2010 — fut celle où l'intelligence artificielle prit forme. Les outils conceptuels forgés pendant l'ère précédente s'incarnèrent dans des machines de plus en plus puissantes. Le rêve de Dartmouth — simuler chaque aspect de l'intelligence humaine — traversa des cycles de promesses et de déceptions avant de renaître, transformé, dans l'apprentissage profond. Les circuits de Shannon et Nakashima devinrent des microprocesseurs. La machine universelle de Turing devint l'ordinateur personnel, puis le téléphone intelligent, puis le centre de calcul mondial.
Mais cette période fut aussi celle des renversements. Les retardataires devinrent pionniers. L'Afrique inventa le paiement mobile avant l'Occident. L'Inde sauta par-dessus le matériel pour devenir géante du logiciel. Taïwan inventa un modèle industriel — le fondeur pur — qui redessina les cartes du pouvoir technologique. Les chemins parallèles tracés depuis des décennies commencèrent à converger vers un même horizon : la domination asiatique des semi-conducteurs et l'émergence d'une intelligence artificielle aux voix multiples.
Ce qui rassemble : les fils rouges d'une ère d'accélération
Cinq fils traversent cette période, tissant une trame que l'on retrouve d'un continent à l'autre.
Le bond par-dessus l'abîme. Partout, des nations et des peuples ont trouvé des moyens de sauter les étapes que d'autres avaient laborieusement gravies. L'Afrique n'avait pas de réseau téléphonique fixe — elle sauta directement au mobile, puis au paiement par téléphone. L'Inde avait manqué le virage du matériel informatique — elle bondit vers les services logiciels quand le bogue de l'an 2000 créa une demande mondiale. Israël n'avait ni industrie électronique ni tradition informatique — elle construisit l'un des premiers ordinateurs du monde et devint la « nation des startups ». Ces bonds n'étaient pas des raccourcis. Ils étaient des inventions — des façons nouvelles de résoudre des problèmes que les pionniers n'avaient pas imaginées. Le dépassement technologique n'est pas une imitation accélérée. C'est une création adaptée au contexte.
Les cycles de l'espoir et du désenchantement. L'intelligence artificielle connut des étés et des hivers. L'été fondateur de Dartmouth (1956), où vingt et un chercheurs crurent pouvoir simuler l'intelligence humaine en une génération. Le premier hiver (1974-1980), quand les promesses non tenues déclenchèrent des coupes budgétaires. L'été des systèmes experts (1980-1987), où le Japon lança son ambitieux projet de cinquième génération. Le deuxième hiver (1987-1993), quand la loi de Moore rendit les machines conventionnelles plus rapides que les architectures spécialisées. Et enfin, à partir de 2006, le troisième été — celui de l'apprentissage profond, qui dure encore. Ces cycles révèlent une vérité sur l'innovation : les percées ne suivent pas une trajectoire linéaire. Elles avancent par vagues, portées par l'enthousiasme, puis freinées par la déception, puis relancées par ceux qui ont persisté dans l'ombre.
L'invisibilisation continue.
La période précédente avait effacé les femmes de Bletchley Park, les programmeuses de l'ENIAC, les traditions mathématiques non occidentales. Cette période poursuivit l'effacement — sous d'autres formes. Les pionnières argentines de ComIC — Clarisa Cortes, Cristina Zoltán, Liana Lew, Noemí García — restèrent inconnues hors de leur pays. Rose Dieng-Kuntz, première femme africaine admise à Polytechnique et pionnière du web sémantique, n'apparaît dans aucune histoire grand public de l'IA. Fernando Flores et l'équipe de Cybersyn furent oubliés pendant des décennies après le coup d'État chilien. Timnit Gebru révéla que les systèmes de reconnaissance faciale erraient jusqu'à trente-cinq pour cent pour les femmes à peau foncée — preuve que les biais de ceux qui construisent les systèmes s'inscrivent dans les systèmes eux-mêmes.
La convergence des chemins parallèles.
Les chemins tracés séparément pendant des décennies commencèrent à se rejoindre. Le Japon, qui avait copié les transistors américains dans les années 1950, dominait le marché mondial des semi-conducteurs dans les années 1980. La Corée du Sud, qui avait commencé par l'assemblage bas de gamme, devint le premier fabricant mondial de mémoire avec Samsung. Taïwan, qui n'avait pas d'industrie informatique en 1980, fabriquait en 2010 la majorité des puces avancées de la planète. L'Inde, qui avait construit TIFRAC dans l'isolement, exportait des milliards de dollars de services logiciels. La Chine, qui avait été coupée du monde pendant la Révolution culturelle, voyait émerger Lenovo, Huawei, et les géants du BAT. Les chemins parallèles convergeaient vers un même horizon — et cet horizon n'était plus occidental.
La protection comme stratégie.
Plusieurs nations utilisèrent la protection de leur marché intérieur comme levier de développement technologique. Le Japon bloqua les brevets de Texas Instruments pendant des années pour permettre à ses entreprises de copier la technologie. Le Brésil imposa des restrictions à l'importation et fabriqua soixante-sept pour cent de ses ordinateurs localement en 1982. La Chine créa le « Bouclier d'or » — la Grande Muraille numérique — qui bloqua Google, Facebook et Twitter, permettant à Baidu, Tencent et Alibaba de prospérer à l'abri de la concurrence étrangère. Ces stratégies furent controversées — et efficaces. Elles posent une question qui reste ouverte : l'innovation naît-elle de l'ouverture ou de la protection ? La réponse, peut-être, est : des deux, selon le moment et le contexte.
Ce qui distingue : six facettes d'une même accélération
Si les fils conducteurs rassemblent, chaque continent a vécu cette période à sa manière. Six singularités, six contributions irréductibles à l'histoire de l'intelligence artificielle.
L'Afrique a inventé l'innovation frugale — et révélé les biais algorithmiques.
M-Pesa transforma l'inclusion financière mondiale depuis le Kenya. Ushahidi créa la cartographie citoyenne depuis Nairobi. Ubuntu Linux porta la philosophie africaine du « je suis parce que nous sommes » dans le code informatique mondial. Ces innovations partageaient une caractéristique : elles étaient nées de la contrainte, pas de l'abondance. L'Afrique n'avait pas de réseau téléphonique fixe — elle inventa le paiement mobile. Elle n'avait pas de médias libres pendant les violences électorales de 2007 — elle inventa la cartographie participative. L'innovation frugale n'est pas une innovation au rabais. C'est une innovation qui résout des problèmes que les laboratoires bien financés n'avaient pas pensé à poser. Mais l'Afrique apporta aussi une contribution critique : Timnit Gebru et Joy Buolamwini révélèrent que les systèmes de reconnaissance faciale, censément objectifs, reproduisaient et amplifiaient les préjugés de ceux qui les avaient conçus. L'IA n'est pas neutre. Elle porte la marque de ses créateurs.
Les Amériques ont forgé l'IA — et ses cycles d'espoir et de désillusion.
Dartmouth, les systèmes experts, l'apprentissage profond : les grandes vagues de l'intelligence artificielle sont nées en Amérique du Nord. Mais les Amériques ont aussi montré que d'autres forges existaient. Le Mexique créa le premier master en informatique d'Amérique latine. L'Argentine développa ComIC, son propre langage de programmation. Le Brésil protégea son industrie et fabriqua ses propres ordinateurs. Et le Chili rêva de Cybersyn — un système informatique pour gérer l'économie en temps réel, une « sorte d'Internet socialiste » détruit par le coup d'État de 1973. Les Amériques nous enseignent que l'histoire de l'IA n'est pas linéaire. Elle est faite de cycles, de forges éteintes de force, de chemins interrompus. Le projet Cybersyn aurait pu montrer qu'une autre informatique était possible — décentralisée, au service des travailleurs, conçue dans le Sud global. Nous ne saurons jamais ce qu'il aurait donné.
L'Asie a démontré que les chemins parallèles finissent par converger — et que la domination peut changer de continent.
Le Japon passa de la copie à l'innovation, puis de l'innovation à l'échec avec le projet de cinquième génération. La leçon fut dure : on ne peut pas décréter une révolution technologique. Mais la robotique japonaise, elle, conquit le monde — soixante-dix pour cent de la production mondiale en 1980, quarante-cinq pour cent encore aujourd'hui. L'Inde sauta par-dessus le matériel pour devenir géante du logiciel. Le bogue de l'an 2000 — cette panique mondiale née d'une décision de programmation des années 1960 — devint sa rampe de lancement. Bangalore concentre aujourd'hui trente-huit pour cent des exportations informatiques indiennes. Taïwan inventa le modèle fabless avec TSMC — une entreprise qui fabrique sans concevoir, permettant à NVIDIA, AMD et Apple d'exister sans posséder d'usines. Morris Chang, « mis au placard » chez Texas Instruments à cinquante-quatre ans, créa le « bouclier de silicium » qui protège aujourd'hui son île. La Chine protégea son marché et fit émerger ses propres géants — Lenovo, Huawei, Baidu, Alibaba, Tencent. Et Fei-Fei Li, née à Pékin, créa ImageNet à Stanford — la base de données qui lança la révolution de l'apprentissage profond.
L'Europe a sabordé son avenir — et s'est reconstruite.
Le rapport Lighthill de 1973 déclencha le premier hiver de l'IA. Le Royaume-Uni, qui avait inventé l'ordinateur à programme enregistré avec Manchester Baby, le premier ordinateur commercial avec Ferranti, les bases de l'IA académique avec Donald Michie — le Royaume-Uni coupa ses propres financements sur la foi d'un rapport de cinquante pages. Le Plan Calcul français tenta de créer une industrie informatique nationale ; il échoua face à la domination d'IBM. Mais l'Europe se reconstruisit. Alain Colmerauer inventa Prolog à Marseille — le langage qui inspirerait le projet japonais de cinquième génération. Tim Berners-Lee créa le World Wide Web au CERN — l'invention qui transforma Internet en phénomène mondial. Linus Torvalds écrivit Linux en Finlande — le système qui fait tourner la plupart des serveurs du monde. Yann LeCun posa les bases des réseaux de neurones convolutionnels — la technologie derrière la reconnaissance d'images. DeepMind, fondée à Londres, battrait le champion du monde de go avec AlphaGo. L'Europe nous enseigne la résilience — la capacité de tomber, de se relever, et de recommencer.
Le Moyen-Orient a fait fleurir les jardins du désert — et montré que la nécessité est mère de l'invention.
Israël construisit le WEIZAC en 1955 — l'un des premiers ordinateurs du monde, dans un pays de six ans d'existence entouré d'ennemis. L'Unité 8200, créée pour le renseignement militaire, devint sans le vouloir la plus grande école de startups du monde. Check Point inventa le pare-feu moderne. ICQ inventa la messagerie instantanée. Waze et Mobileye révolutionnèrent la navigation et la conduite autonome. La « nation des startups » exportait onze milliards de dollars de cybersécurité en 2021. Lotfi Zadeh, né à Bakou, formé à Téhéran, inventa la logique floue à Berkeley — une façon de représenter les concepts vagues que les humains manient intuitivement. Les Américains furent sceptiques ; les Japonais s'en emparèrent. Les Émirats arabes unis plantèrent les graines d'une ambition numérique — Dubai Internet City, Masdar Institute — qui fleuriraient après 2010. Le Moyen-Orient nous enseigne que l'adversité peut être un moteur d'innovation — et que les jardins peuvent pousser dans le désert.
L'Océanie a prouvé que l'isolement peut être une force — et que les antipodes peuvent inventer des ponts vers le monde.
Le CSIRAC fut le cinquième ordinateur à programme enregistré du monde — construit à Sydney, « largement indépendamment des efforts européens et américains ». Trevor Pearcey prédit Internet en 1948. Graeme Clark inventa l'implant cochléaire — plus d'un million de personnes entendent aujourd'hui grâce à lui. Le CSIRO développa une technique de transmission sans fil qui devint un composant essentiel du WiFi — et gagna quatre cent cinquante millions de dollars face à quatorze géants de la tech qui tentaient d'invalider son brevet. Where 2 Technologies créa Google Maps depuis un appartement de Sydney. Atlassian devint la première licorne tech australienne avec dix mille dollars de dette de carte de crédit. L'Océanie nous enseigne que l'isolement géographique n'est pas une condamnation. Il peut forcer l'originalité, obliger à tout inventer soi-même, créer des solutions que les centres du pouvoir n'avaient pas imaginées.
Ce que cette période nous enseigne pour l'éthique de l'IA
Cette traversée révèle quatre leçons que la période précédente avait esquissées mais que celle-ci formule avec une nouvelle urgence.
Les biais s'inscrivent dans les systèmes.
Timnit Gebru et Joy Buolamwini ont démontré que les systèmes de reconnaissance faciale erraient jusqu'à trente-cinq pour cent pour les femmes à peau foncée — contre moins d'un pour cent pour les hommes blancs. Ce n'était pas un bug. C'était le reflet des données d'entraînement, des équipes de développement, des priorités implicites de ceux qui construisaient les systèmes. L'intelligence artificielle n'est pas neutre. Elle amplifie les préjugés de ses créateurs. Et ces préjugés, une fois encodés dans des algorithmes déployés à grande échelle, deviennent des infrastructures — difficiles à voir, plus difficiles encore à démanteler.
L'innovation peut surgir des marges.
M-Pesa est né au Kenya, pas dans la Silicon Valley. Ushahidi est né pendant une crise électorale africaine, pas dans un laboratoire de recherche. L'implant cochléaire est né en Australie, pas aux États-Unis. Ces innovations partageaient une caractéristique : elles répondaient à des problèmes que les centres du pouvoir technologique n'avaient pas pensé à poser. L'inclusion financière pour les non-bancarisés. La cartographie citoyenne pour les pays sans médias libres. L'audition pour les sourds profonds. L'éthique de l'IA devrait reconnaître que la diversité des contextes produit la diversité des solutions — et que les marges peuvent voir ce que le centre ne voit pas.
La protection crée des écosystèmes — mais à quel prix ?
Le Japon protégea son industrie des semi-conducteurs et domina le marché mondial dans les années 1980. La Chine protégea son marché numérique et fit émerger Baidu, Alibaba, Tencent. Ces protections furent efficaces — mais elles eurent un coût. Le « Bouclier d'or » chinois n'est pas seulement une politique industrielle. C'est aussi un système de censure. La frontière entre protection économique et contrôle politique est poreuse. L'éthique de l'IA doit reconnaître cette ambiguïté : les mêmes outils qui permettent l'émergence d'écosystèmes locaux peuvent aussi servir à la surveillance et à la répression.
Les décisions d'aujourd'hui façonnent les décennies suivantes.
Le rapport Lighthill de 1973 coupa les financements de l'IA britannique pendant des années. Le coup d'État chilien de 1973 détruisit Cybersyn et emprisonna Fernando Flores. La décision de Morris Chang de créer TSMC en 1987 redessina les cartes du pouvoir technologique pour des générations. Ces décisions — prises par des individus, pour des raisons qui leur semblaient bonnes sur le moment — eurent des conséquences qui dépassaient de loin leurs intentions. Qui gouverne l'IA aujourd'hui ? Qui décide des données utilisées, des modèles développés, des applications autorisées ? Ces questions ne sont pas techniques — elles sont politiques. Et les réponses que nous leur donnons façonneront peut-être le monde pour des décennies.
L'héritage pour l'intelligence artificielle
La période 1945-2010 nous a légué l'infrastructure de l'intelligence artificielle — et les questions qui l'accompagnent.
De Dartmouth, nous avons hérité le rêve de simuler l'intelligence humaine. De Minsky et McCarthy, les premières tentatives de le réaliser. Des systèmes experts, la leçon que la connaissance peut être encodée dans des règles. De l'échec du projet de cinquième génération, l'avertissement que l'hubris technologique mène à l'impasse. De Hinton, LeCun et Bengio, la renaissance des réseaux de neurones. De Fei-Fei Li et ImageNet, le carburant qui permit à l'apprentissage profond de décoller. Cette chaîne est directe, documentée, enseignée.
Mais nous avons aussi hérité de ce qui fut effacé ou interrompu. Le projet Cybersyn, détruit par un coup d'État. Les pionnières de ComIC, oubliées dans leur propre pays. Les chercheurs africains contraints à l'exil. Les traditions informatiques des pays du Sud, marginalisées par le manque de ressources. Rose Dieng-Kuntz, dont les travaux sur le web sémantique n'apparaissent dans aucune histoire grand public de l'IA.
Plus profondément encore, nous avons hérité d'une concentration qui se renforce. En 1945, les centres du calcul étaient multiples — Manchester, Princeton, Sydney, Rehovot. En 2010, quelques entreprises américaines et chinoises concentrent l'essentiel des capacités. Les données massives nécessaires à l'apprentissage profond sont détenues par quelques géants. Les centres de calcul capables d'entraîner les grands modèles se comptent sur les doigts d'une main. Cette concentration n'est pas un accident — elle est le produit des économies d'échelle, des effets de réseau, des choix politiques. L'intelligence artificielle contemporaine hérite de cette concentration. Et elle l'amplifie.
Vers la période suivante : 2010 à nos jours
En 2006, Geoffrey Hinton et ses étudiants publient un article sur les réseaux de neurones profonds. C'est le début d'une renaissance.
En 2009, Fei-Fei Li publie ImageNet — une base de données de douze millions d'images classées en vingt-deux mille catégories. C'est le carburant dont l'apprentissage profond avait besoin.
En 2012, Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton remportent le concours ImageNet avec AlexNet — un réseau de neurones convolutionnel qui surpasse tous les autres systèmes. C'est la preuve que l'apprentissage profond fonctionne.
L'été qui s'ouvre sera le plus long et le plus transformateur de l'histoire de l'IA. Les grands modèles de langage. Les systèmes génératifs. Les agents autonomes. Les promesses et les périls d'une intelligence artificielle qui s'approche — ou semble s'approcher — des capacités humaines.
Mais cette période héritera de tout ce qui précède. Les biais inscrits dans les données. La concentration du pouvoir entre quelques mains. L'invisibilisation continue des contributeurs des marges. Les leçons non tirées des cycles précédents. Les chemins parallèles qui convergent enfin — vers quoi, nous ne le savons pas encore.
L'intelligence artificielle que nous construirons demain dépendra des choix que nous ferons aujourd'hui. Si nous ne nous racontons qu'une seule histoire — celle de Dartmouth, de la Silicon Valley, des laboratoires de recherche bien financés —, nous ne construirons qu'un seul type d'intelligence. Si nous apprenons à écouter d'autres histoires — celles de M-Pesa et d'Ushahidi, de Cybersyn et de TSMC, de Rose Dieng-Kuntz et de Timnit Gebru —, peut-être pourrons-nous construire autre chose.
Le choix qui nous appartient
Cette période nous lègue une question fondamentale : qui hérite de la révolution numérique — et qui en est exclu ?
L'Afrique a inventé le paiement mobile avant l'Occident — mais la fracture numérique persiste. Soixante-sept pour cent des ménages latino-américains ont accès à Internet, contre quatre-vingt-onze pour cent dans les pays de l'OCDE. Les peuples autochtones, ceux-là mêmes dont les ancêtres furent envoyés dans les pensionnats, sont parmi les moins connectés. Cuba, sous embargo, n'a autorisé l'Internet mobile qu'en 2018.
L'innovation peut surgir des marges — mais les marges restent des marges. Les talents africains continuent de s'exiler. Les brevets du CSIRO furent contestés par quatorze géants de la tech. Les entreprises chinoises sont bloquées aux États-Unis, les entreprises américaines en Chine. La fragmentation s'installe là où la convergence était promise.
Le bond par-dessus l'abîme est possible — mais il n'est pas automatique. Il faut des institutions, des financements, des choix politiques. M-Pesa n'est pas né par accident. TSMC non plus. Ces succès sont le produit de décisions — prises par des hommes et des femmes, pour des raisons qui leur semblaient bonnes sur le moment. D'autres décisions auraient produit d'autres résultats.
L'ère de l'information nous lègue cette leçon : l'avenir n'est pas écrit. Il est le produit des choix que nous faisons — et des choix que nous refusons de faire.
L'ère de l'information a transformé les outils conceptuels en machines réelles, les spéculations philosophiques en industries mondiales, les rêves de quelques chercheurs en infrastructure planétaire. Elle nous lègue une technologie puissante et des questions ouvertes : qui la contrôle, qui en bénéficie, qui en est exclu.
L'été de l'apprentissage profond a commencé. Ce que nous construirons pendant cet été dépend de nous.
Le voyage continue.