Connectez-vous / Enregistrez-vous pour accéder aux avantages de votre compte
Récemment recherché
      • Publié le 10 janv. 2023
      • Mis à jour le 15 déc. 2023
    • 6 min

    Qu'est-ce qu'un microprocesseur ?

     Qu'est ce qu'un microprocesseur ?

    Article publié le 02/06/2022

    En octobre 2021, Intel a célébré le 50e anniversaire de l’Intel 4004. Un microprocesseur pionnier qui a changé la face du monde.

    Le microprocesseur. Le composant majeur d’un ordinateur. Son cerveau miniaturisé greffé sur un circuit intégré de la taille d’un ongle. Le premier, en 1971, était capable d’effectuer quelques dizaines de milliers d’instructions par seconde. Aujourd’hui, en une seconde, ces quelques millimètres en traite plus de 10 milliards.

    Intel 4004

    Pour Intel, l’entreprise fondée le 18 juillet 1968 par Gordon Moore, Robert Noyce et Andrew Grove, l’invention d’Intel 4004 est l’un des plus grands moments de l’histoire. De l’histoire de l’humanité mais aussi de l’histoire d’Intel, née avec lui.

    En 1969, la société japonaise Busicom passe commande à Intel : l’entreprise japonaise cherche à développer une calculatrice de poche, qui croiserait la technologie des logiciels informatiques avec le matériel de calculatrice de table (computerized calculator). C’est dans ce cadre que Federico Fakin, Ted Hoff et Stan Maser, en adaptant les plans originaux de 12 puces personnalisées, conçoivent en 1971 un ensemble de quatre puces – dont le processeur 4004 : c’est la première fois que l’on parvient à intégrer toutes les fonctions d’un processeur sur un seul et unique circuit intégré. Une première. Soit 2 300 transistors miniaturisés pour une puissance d'exécution d'environ 60 000 opérations par seconde.

    On commence à les fabriquer en série dans des salles blanches à partir de plaques tranchées dans d'énormes cylindres de silicium. Ce qui est révolutionnaire à l’époque, ce ne sont pas tant les performances offertes par ce micro-processeur mais le fait que sa conception permet de fabriquer des ordinateurs à moindre coût et bientôt transportables. Intel 4004 signe la fin du monopole d’IBM, fondé en 1911.

    L'année suivante, le 4004 est suivi par le premier microprocesseur 8 bits, le 8008 (et par le 4040, un 4004 révisé), puis en 1974 par le 8080, le microprocesseur avec lequel va débuter « pour de bon » la révolution des micro-ordinateurs.

    Avec l’arrivée sur le marché des PC à base de microprocesseurs x86 de la gamme Pentiumune marque déposée par Intel en 1993 sous laquelle réunir les noms de codes donnés jusqu’alors à ses micro-processeurs (80286, 80386, 80486), Intel devient le plus gros fabricant de micro-processeurs et de circuits intégrés.

    Le premier micro-ordinateur est français

    1973. Le bureau d'études R2E commercialise Micral, le premier micro-ordinateur de l’histoire à utiliser un micro-processeur, l’Intel 8008. Un micro-ordinateur conçu pour répondre à une commande de l’INRA : en pleine crise énergétique (1er choc pétrolier) l’Institut National de la Recherche Agronomique veut développer une agriculture autonome et économe. Elle a besoin d’outils pour mesurer et calculer l’évapotranspiration des sols.

    Le micro-processeur, le sésame des geeks

    1975. De l’autre côté de l’Atlantique, le constructeur américain MITS conçoit l’Altair 8800, un micro-ordinateur doté du micro-processeur Intel 8080. Vendu en kit, il est encore réservé à un cercle d’initiés. Deux d’entre eux, Bill Gates et Paul Allen, le découvrent en lisant Popular electronics qui lui a consacré sa Une : «A microprogrammable computer on a chip!». Ils écrivent à la MITS pour leur soumettre une proposition : développer un langage informatique Altair BASIC. Dans le même élan, Gates et Allen fondent Microsoft.

    L’année suivante, en 1976, c’est au tour de Steve Jobs et de Steve Wozniak de fonder Apple Computer : avec Apple I, ils font la différence. L'utilisation d'un clavier et d'un moniteur distingue ce micro-ordinateur de ses concurrents, notamment de l’Altair 8800. Mais il faut attendre l’année 1977, et l'Apple II, conçu par Steve Wozniak, pour que l’ordinateur personnel sorte des garages d’une poignée de geeks et entrent dans les foyers de millions d’Américains.

    Le monde de demain est né.

    Le saviez-vous ?

    Le 11 juin 2017, l'un des cinq derniers exemplaires connus du Micral N a été vendu aux enchères 50 000 euros. Son acheteur ? Paul Allen, l’un des fondateurs de Microsoft. Il en fait l’acquisition pour le Living Computer Museum, cette caverne d’Ali Baba dédiée aux PC qu’il a créée à Seattle en 2006.

    L’IoT

    Le microprocesseur a permis le passage en accéléré d’un monde sans ordinateur personnel à notre société du XXIe siècle interconnectée par l'intermédiaire de terminaux fixes et mobiles.

    En 2021, le processeur graphique Ampere A100 de Nvidia, entreprise américaine fondée en 1993, intègrent 54 milliards de transistors. Ce qui en fait pour l’heure la puce de traitement la plus dense et la plus puissante au monde

    Il n’existe plus au monde la moindre opération technique qui ne soit pilotée par un microprocesseur sous le contrôle d'un logiciel. Un phénomène qui va s'accroître avec l’IoT, l’Internet des objets. Un marché estimé à 12,13 milliards de dollars US d’ici 2028 selon le rapport Data Bridge Market Research paru en mars 2022. Les micro-processeurs sortent de nos micro-ordinateurs pour coloniser les objets de notre quotidien - frigos, canapés, fringues, brosses à dents… Une nouvelle aventure de l’épopée de la micro-informatique, qui consiste, pas seulement à collecter et à exploiter des données, mais à rendre notre monde toujours plus « intelligent », capable de nous fournir des services à la fois innovants, évolutifs et transversaux.

    D’où vient le terme « geek » ?

    Du bas-allemand « geck » (« imbécile) et du néerlandais « gek » (« fou »). Fut un temps, dans les années 1920, on retrouve le mot « geek » sous la plume d’écrivains comme Upton Sinclair ou Truman Capote pour désigner des hommes en marge de la société, peu soucieux de leur mise – vêtements et cheveux en bataille – toujours plongés dans leurs pensées, « no-life » sur les bords. Dans les années 1960, avec le développement de l’informatique, le mot commence à se spécialiser et renvoie aux forts en maths, technophiles-nés. En 2022, avec la digitalisation de la société, le terme a définitivement perdu ses connotations négatives.

    Produits associés

    Microprocesseurs

    Microprocesseurs

    Un microprocesseur, également appelé un processeur, est un processeur informatique sous la forme d'un circuit intégré (CI) unique.

    En savoir plus

    Écrans

    Écrans

    Découvrez notre gamme d’écrans tactiles pour un affichage à utiliser avec votre Arduino.

    En savoir plus

    Pour aller plus loin

    1 / 2