1996 et au-delà: de nouvelles frontières

L'informatique est omniprésente, mobile, partout

Le microprocesseur a permis d'utiliser des ordinateurs personnels en ouvrant la porte à des machines plus abordables qui prennent moins de place. Les années 70 ont fourni la base matérielle, les années 80 ont introduit des économies d'échelle, les années 90 ont étendu la gamme d'appareils et des interfaces utilisateur accessibles.

Le nouveau millénaire rapprocherait les humains et les ordinateurs. Les appareils plus portables et personnalisables sont devenus le canal qui répond aux besoins de base des gens en matière de connectivité. Il n'est pas surprenant que l'ordinateur soit passé de l'outil de productivité à l'indispensable compagnon à mesure que la connectivité devient plus courante.

À l'approche de la fin des années 1990, une hiérarchie s'est établie dans le monde du PC. Les équipementiers, qui utilisaient auparavant IBM en tant que leader du marché, ont trouvé leur influence désormais réduite par Intel. Avec la subvention à la publicité pour la campagne «Intel Inside» d'Intel, les OEM avaient en grande partie perdu leur individualité sur le marché.


Le Pentium III a joué le rôle principal dans la «bataille de Gigahertz» contre les processeurs AMD Athlon entre 1999 et 2000. En fin de compte, c'est AMD qui a livré l'Athlon 1 GHz quelques jours avant qu'Intel ne lance le sien.Photo: Wiki Commons)

Intel a été usurpé en tant que leader de l'industrie par Microsoft après avoir soutenu son intention d'augmenter l'efficacité multimédia en suivant le logiciel NSP (Local Signal Processing). Microsoft a annoncé aux OEM que l'entreprise ne prendrait pas en charge NSP avec les systèmes d'exploitation Windows, comme c'était le cas avec MS-DOS et Windows 95 à l'époque.




La tentative d'Intel de passer dans le domaine logiciel de Microsoft était motivée, au moins en partie, par l'influence croissante de Microsoft dans l'industrie et l'avènement du système d'exploitation Windows CE, pour réduire la dépendance de Microsoft à l'écosystème x86 d'Intel en prenant en charge les processeurs RISC.




L'initiative NSP d'Intel a mis en évidence un seul aspect de la stratégie de l'entreprise pour maintenir sa position dans l'industrie. Un changement plus radical dans l'orientation architecturale prendra la forme de l'architecture P7, baptisée Merced en janvier 1996. La première, prévue en deux étapes, produira un processeur 64 bits grand public entièrement compatible 32 bits, tandis que la deuxième étape radicale sera une conception 64 bits pure qui nécessite un logiciel 64 bits.


Sorti en 1997, le HP 300LX a été l'un des premiers ordinateurs de poche conçus pour exécuter le système d'exploitation Windows CE 1.0 de Microsoft. 44 MHz Hitachi SH3 (Photo: evanpap)




Les obstacles à l'exécution du matériel et à un écosystème logiciel viable ont poussé Intel à concurrencer les processeurs Itanium et RISC basés sur Intellett 64-Pack (IA-64) sur le marché lucratif des entreprises, en partenariat avec Hewlett-Packard. L'échec lamentable d'Itanium, résultant des prédictions trop optimistes d'Intel pour son architecture VLIW et ses ventes ultérieures, a fait une différence qui donne à réfléchir, montrant que jeter des ressources de R&D extraordinaires dans une mauvaise idée était une mauvaise idée coûteuse. Financièrement, les pertes d'Itanium ont été améliorées à partir de la fin de 1996 par le portage par Intel du x86 sur les marchés professionnels avec le Pentium Pro (et plus tard la marque Xeon), mais Itanium reste une leçon d'arrogance.




Au contraire, la transition d'AMD de la conception et de la production x86 indépendantes du deuxième fournisseur source a été un succès. Les architectures K5 et K6 qui l'ont suivi ont réussi à éloigner AMD de la dépendance Intel, et comme Intel est passé à l'architecture P5 avec sa carte mère de chipset Slot 1 et 440 (tous deux refusés à AMD sous la licence croisée révisée), son IP rapidement à la fois intégré aux processeurs ainsi qu'aux cartes mères. Contrat).

AMD a adapté le Socket 7 existant à Super Socket 7 avec une copie sous licence du chipset Apollo VP2 / 97 de VIA, qui fournit un support AGP pour être plus compétitif avec les offres d'Intel. AMD a suivi cela avec le premier chipset développé ("Irongate" AMD 750) et la carte mère Slot A pour le produit qui briserait la vraie concurrence avec Intel. À tel point qu'Intel a d'abord fait pression sur les fabricants de cartes mères AMD pour minimiser le chipset 440BX en limitant son approvisionnement aux fabricants de cartes en désaccord.




La transition d'AMD de la conception et de la production x86 indépendantes du deuxième fournisseur source a été un succès.

Le K6 et ses successeurs, le K6-II et le K6-III, ont augmenté la part de marché x86 d'AMD de 2% par an après leur introduction. Les revenus sur le marché du budget ont été stimulés par la première ligne mobile domestique d'AMD avec les variantes K6-II-P et K6-III-P. Jusqu'au début de 2000, les très élégantes séries mobiles K2-II et III + (Plus) avaient des exigences de tension plus faibles et des vitesses d'horloge plus élevées grâce à une réduction de la taille des processus et à la nouvelle technologie d'horloge dynamique PowerNow d'AMD. Terminez la 3D maintenant! Instructions fournies avec K6-II pour améliorer les calculs en virgule flottante.

Les prix agressifs seraient largement compensés par l'expansion rapide d'Intel sur le marché des serveurs, et ce dont AMD avait besoin était un produit phare qui sortirait l'entreprise de l'ombre d'Intel. L'entreprise a été livrée avec style avec le K7 Athlon.




Le K7 est arrivé chez Digital Equipment Corporation, qui semblait être un produit à la recherche d'une entreprise capable de réaliser le potentiel de l'architecture du processeur Alpha RISC. Alors que DEC a mal géré sa présence, le co-architecte Alpha 21064 et 21164, Derrick Meyer, a rejoint AMD en tant que chef de la conception du K7 avec la dernière conception d'Alfa, y compris la logique interne et le bus système EV6.

Lors du lancement de l'architecture K6, la première scène du K7 au Microprocessor Forum de San Jose le 13 octobre 1998 a attiré l'attention du lion. Des vitesses d'horloge commençant à 500 MHz, le Pentium II le plus rapide fonctionnant à 450 MHz avec la promesse de 700 MHz dans un proche avenir, grâce à la transition vers les interconnexions en cuivre (à partir d'aluminium standard de l'industrie) utilisées dans le processus 180µm du nouveau Fab 30 d'AMD à Dresde, en Allemagne de l'Ouest.

L'Athlon K7 sera grandement apprécié en juin 1999 à 500, 550 et 600 MHz. Alors que le lancement du Kati Pentium III d'Intel il y a quatre mois était entaché de problèmes avec le modèle phare à 600 MHz, l'introduction du K7 était sans faille et le système HyperTransport a rapidement suivi les puces Fab 30 promises à 650 et 700 MHz avec de nouveaux détails sur le bus. partiellement développé par un autre diplômé du DEC, Jim Keller.

L'arrivée d'Athlon a marqué les salves d'ouverture combinées avec la «bataille de Gigahertz». La bataille avec les nouveaux chipsets entre AMD et Intel, qui est moins que des gains financiers plus que des opportunités marketing associées, a donné une étincelle à une nouvelle vague de passionnés. Les progrès accrus de l'Athlon 700 MHz au Coppermine Pentium III 733 MHz en octobre 1999 ont conduit à l'Athlon 750 MHz en novembre et au modèle Intel 800 MHz en décembre.

L'arrivée d'Athlon a marqué les salves d'ouverture de la «bataille de Gigahertz».

AMD atteindrait le marqueur 1 GHz quand il montrait le bureau Presario doté d'un processeur Athlon refroidi par le refroidisseur à changement de phase Super G de KryoTech au Compaq Winter Consumer Electronics Show le 6 janvier 2000 à Las Vegas.

Ce coup dur a été suivi par le lancement par AMD de l'Athlon 850 MHz en février et de 1000 MHz le 6 mars, deux jours avant qu'Intel ne lance son propre Pentium III 1 GHz. Insatisfait de cela, Intel a déclaré qu'une partie avait commencé à être expédiée il y a une semaine, l'Athlon 1000 d'AMD a commencé à être expédié la dernière semaine de février - une affirmation facilement vérifiée selon laquelle Gateway est en train d'expédier les premières commandes des clients.

Cette poursuite du seuil de rentabilité pour la vitesse du cœur se poursuivrait en grande partie sans interruption au cours des deux prochaines années jusqu'à ce que l'avantage de la vitesse du cœur de l'architecture NetBurst d'Intel incite AMD à s'appuyer davantage sur sa vitesse nominale plutôt que sur la fréquence réelle du cœur. La course n'a pas été sans pertes. Alors que les prix ont régulièrement baissé en tant que flux constant de nouveaux modèles, les prix des systèmes OEM ont commencé à monter en flèche - en particulier AMD et Intel ont arboré les modèles 1 GHz car ils nécessitent des alimentations et un refroidissement plus robustes en fournissant de petites pointes de tension pour maintenir la stabilité.

L'Athlon d'AMD serait également initialement détenu par un cache hors moule fonctionnant plus lentement que le processeur, ce qui entraînerait un désavantage de performances significatif par rapport au Pentium III basé sur Coppermine et des problèmes de démarrage sur le chipset Irongate d'AMD et Viper southbridge. . L'alternative parfaite à VIA, le chipset KX133 avec bus AGP 4x et prise en charge de la mémoire 133 MHz, a révisé l'inclusion de l'Athlon du cache de niveau 2 à pleine vitesse sur le dé, permettant à l'Athlon de vraiment montrer son potentiel en tant que Thunderbird.


AMD Athlon CPU "Pencil Trick" Utilisation d'un crayon pour reconnecter les ponts L1 permettant au processeur d'être ajusté à n'importe quelle fréquence d'horloge. (Wikipédia)

Avec Intel désormais dans le segment des performances, la société a lancé sa gamme Duron à prix réduit pour concurrencer les chipsets Intel Celeron, les ponts sud et les processeurs mobiles sur le marché en pleine croissance des ordinateurs portables, où la présence d'Intel est commune dans les produits phares de Dell (Inspiron). , Toshiba (Tecra), Sony (Vaio), Fujitsu (Lifebook) et IBM (ThinkPad).

Dans les deux ans suivant le lancement du K7, AMD revendiquera 15% du marché des processeurs d'ordinateur portable - un dixième de la part de marché des ordinateurs de bureau au même moment. Les ventes d'AMD ont énormément fluctué entre 2000 et 2004, les ventes d'AMD étant fortement tributaires du calendrier de production de la fonderie AMD de Dresde.

La direction d'AMD n'était pas préparée au niveau de succès atteint par le K7, ce qui a causé des problèmes pendant une période critique où il a commencé à inquiéter au sein d'Intel.

La direction d'AMD n'était pas préparée au niveau de succès atteint par la conception de l'entreprise, ce qui a entraîné des pénuries qui ont gravement limité la croissance de la marque et la part de marché au cours d'une fenêtre critique au cours de laquelle AMD a commencé à susciter des inquiétudes chez Intel. Alors que les contraintes d'approvisionnement affectent également les partenaires de l'entreprise, en particulier Hewlett-Packard, elles donnent du pouvoir au principal OEM Intel Dell, qui vend des systèmes à un rythme extraordinaire et ne collecte les paiements que pour déplacer les plates-formes Intel peu après le lancement des AMD à la mi-2003. K8 "SledgeHammer" Opteron est un produit qui menace de faire dérailler le marché lucratif des serveurs Xeon d'Intel.

La part de cet échec à tirer pleinement parti du K7 et à suivre les architectures K8 est venue de la mentalité du PDG d'AMD Jerry Sanders. Comme ses contemporains chez Intel, Sanders était un traditionaliste à une époque où une société de semi-conducteurs concevait et fabriquait ses propres produits. La montée en puissance des entreprises Fabless a attiré l'attention et a lancé un boom contre le Cyrix nouvellement formé "où les vrais hommes ont des fabs".

La position s'est adoucie alors que l'attitude de Sanders s'est adoucie pour assumer le rôle de PDG avec un contrat d'externalisation à Chartered Semiconductor en novembre 2004, qui a commencé à produire des puces en juin 2006, quelques mois après la sortie de l'extension Dresden Fab 36 d'AMD. processeurs. C'était le départ du modèle traditionnel des semi-conducteurs, où toute une industrie centrée sur le mobile construite en achetant des conceptions de processeurs ARM prêtes à l'emploi alors que les entreprises concevant et fabriquant leurs propres puces augmentaient et s'engageaient dans la fabrication de puces.


Le Fab 36 d'AMD à Dresde fait actuellement partie de la société dérivée GlobalFoundries.

Tout comme Intel convoitait le marché des serveurs à marge élevée, AMD considérait l'industrie comme un outil d'expansion possible dont la présence n'existait essentiellement pas. Alors que la stratégie d'Intel était de tracer une ligne sous x86 et de suivre une nouvelle architecture dépourvue de concurrence utilisant sa propre IP, la réponse d'AMD était plus traditionnelle. Les deux sociétés envisageaient l'avenir de l'informatique 64 bits; Intel a perçu une forte possibilité pour les architectures RISC de surpasser les conceptions x86 CISC à l'avenir, et AMD avait Intel comme leader de l'industrie pour s'assurer que l'informatique 64 bits deviendrait une norme.

Lorsque x86 migre de 16 bits à 32 bits, la prochaine étape logique serait d'ajouter des fonctionnalités 64 bits avec compatibilité descendante pour la majorité des logiciels existants pour assurer une transition en douceur sans perturber l'écosystème existant. Cette approche était la position de retour d'Intel plutôt que son option préférée.

AMD a été le pionnier de l'informatique 64 bits, et avec le besoin d'Intel de rendre EM64T compatible avec AMD64, la société Sunnyvale a été validée dans la communauté logicielle au sens large.

Désireux de créer des processeurs pionniers sur plusieurs fronts, Intel s'est retiré du bourbier des licences x86 et de la propriété IP, même s'il suivait la gamme de produits x86 64 bits, soulevant le problème des propres produits d'Intel qui allaient à l'encontre de l'adoption de l'IA64. AMD n'avait pas un tel problème.

Après avoir décidé d'inclure l'extension 64 bits dans le framework x86 au lieu de travailler sur une architecture existante de DEC (Alpha), Sun (SPARC) ou Motorola / IBM (PowerPC), le reste était de créer des partenariats logiciels. En mettant en œuvre les instructions, AMD n'a pas le luxe des grandes équipes de développement de logiciels internes d'Intel. La collaboration devait jouer en faveur d'AMD car elle favorisait des liens solides entre AMD et les développeurs de logiciels, aidant ainsi l'industrie à accepter ce que serait AMD64.

Travaillant en étroite collaboration avec le chef de projet K8 Fred Weber et Jim Keller, qui seront David Cutler et Robert Short chez Microsoft, Dirk Meyer (vice-président senior du groupe des produits informatiques d'AMD) et ils entretiennent de solides relations de travail depuis leur passage chez DEC. AMD consultera également des groupes open source, dont SUSE, qui fournira le compilateur. Les efforts de collaboration ont permis à AMD64 ISA et Intel d'être rapidement développés et commercialisés et ont forcé Intel à fournir une solution concurrente.

Six mois après que Fred Weber a présenté la nouvelle architecture K8 d'AMD au Microprocessor Forum en novembre 1999, Intel a commencé à travailler sur Yamhill (plus tard Clackamas), qui deviendrait EM64T et plus tard Intel64. Alors qu'AMD était pionnier et qu'Intel avait besoin de rendre EM64T compatible avec AMD64, la société Sunnyvale a validé la communauté logicielle au sens large - avec Microsoft si plus est nécessaire.

L'arrivée de l'Athlon 64 sur serveur Opteron en juillet 2003 et de la version grand public de bureau et mobile en octobre a été le signe d'une croissance continue et d'une présence accrue sur le marché pour AMD. La part de marché des serveurs jusque-là inexistante a augmenté à 22,9% du marché x86 aux dépens d'Intel au début de 2006, conduisant à des baisses de prix agressives d'Intel. Les gains sur le marché de la consommation ont été tout aussi impressionnants, AMD passant de 15,8% au troisième trimestre 2003 à un niveau record de 25,3% au premier trimestre 2006, lorsque l'âge d'or de l'entreprise a soudainement cessé.

Au premier trimestre 2006, la part d'AMD a atteint un niveau record de 25,3%, lorsque l'âge d'or de l'entreprise s'est soudainement arrêté.

AMD aura quelques retours l'entreprise doit encore récupérer. Après avoir été fermées par Dell pendant plusieurs années, les entreprises ont commencé à travailler ensemble pour la première fois en 2006, prenant les préférences d'allocation de Dell par rapport aux autres OEM. À cette époque, Dell était le plus grand fabricant de systèmes au monde, fabriquant 31,4 millions de systèmes en 2004 et près de 40 millions d'expéditions en 2006, mais était enfermé dans une bataille acharnée avec Hewlett-Packard pour la domination du marché.

Dell était partiellement reconduit vers une campagne marketing cohérente menée par HP, mais sa position rappelle la vente de systèmes perdus, la baisse des ventes dans le secteur des entreprises à marge élevée, la mauvaise gestion, le travail avec la SEC et plus de quatre millions de batteries d'ordinateurs portables. Lorsque l'entreprise a retrouvé sa fortune, elle a concurrencé non seulement le nouveau leader du marché HP, mais aussi un OEM en pleine croissance qui a provoqué la vague de popularité des netbooks et des ordinateurs portables légers.

2006 verrait également un nouveau concurrent d'Intel - le premier a poussé AMD à redevenir un acteur environnemental. Lors du forum des développeurs Intel d'août 2005, le PDG Paul Otellini a ouvertement reconnu les échecs de NetBurst, avec l'augmentation de la consommation d'énergie et de la production de chaleur du Pentium D. Les fréquences d'horloge de l'architecture NetBurst à grande vitesse et à long pipeline d'Intel ont grimpé en flèche, la société a mis de côté le système sur puce (SoC) Timna basé sur NetBurst et a mis l'équipe de conception sur la voie d'un processeur basse consommation emprunté au précédent P6 Pentium Pro.

Les Centrino et Pentium M suivants ont conduit directement à l'architecture Core, et sa progéniture a cédé la place à la gamme de modèles modernes. Alors qu'AMD continue de remplacer le K8, il a équilibré le manque d'évolution avec sa forte baisse de prix pour maintenir sa part de marché jusqu'à ce que son projet d'intégrer l'architecture, les graphiques et les architectures de processeur de 10 heures se concrétise.


Bas d'Intel Pentium M 1.4. Le Pentium M représentait une nouvelle percée radicale d'Intel et une efficacité énergétique optimisée à un moment où l'utilisation des ordinateurs portables montait en flèche.

En 2006, limité par le fardeau de la dette résultant de l'acquisition d'un ATI trop coûteux, AMD a fait face non seulement à la reprise d'Intel avec une architecture compétente, mais aussi à un marché informatique qui a commencé à embrasser les systèmes mobiles où les architectures Intel seraient mieux adaptées. Une décision précoce de se battre pour le marché des serveurs durement gagné a incité AMD à choisir de concevoir des processeurs multicœurs haute vitesse pour le segment haut de gamme et de réutiliser ces modules de base avec la nouvelle adresse IP graphique ATI.

Centrino et Pentium M ont évoqué un Intel remanié et ont cédé directement la place à l'architecture Core, dont la lignée s'étend à la gamme de modèles d'aujourd'hui.

Le programme Fusion a été officiellement annoncé le jour où AMD a finalisé son acquisition d'ATI le 25 novembre 2006. Les détails de la composition architecturale réelle et du Bulldozer ont suivi en juillet 2007 pour les deux à être introduits en 2009.

Les réalités économiques du service de la dette d'AMD et des mauvaises ventes qui ont chuté sa part de marché à 64 jours permettront de repenser en profondeur après le lancement de sa feuille de route jusqu'en 2011. Dans le même temps, AMD a décidé de s'en prendre à un smartphone. le processeur lui demande de vendre son IP graphique mobile à Qualcomm (apparaissant plus tard sous le nom de GPU Adreno dans les SoC Snapdragon basés sur ARM de Qualcomm).

Intel et AMD ont tous deux ciblé les graphiques intégrés comme stratégie clé dans leur développement futur en tant qu'extension naturelle de la pratique actuelle visant à réduire le nombre de puces séparées requises pour toute plate-forme. Il faisait suite à l'annonce de Fusion d'AMD deux mois plus tard sur le projet d'Intel de déplacer son IGP vers le processeur Nehalem. L'intégration des graphiques s'est avérée aussi difficile pour l'équipe R&D d'Intel beaucoup plus importante que les premières puces Clarkdale basées à Westmere en janvier 2010 à avoir IGP sur un «package» pas entièrement intégré dans le moule du processeur.

Le Sandy Bridge était le deuxième processeur 32 nm d'Intel et le premier à proposer des graphiques entièrement intégrés.

Finalement, les deux sociétés lanceront des conceptions IGP dans quelques jours en janvier 2011, avec l'architecture grand public d'Intel Sandy Bridge, qui suit rapidement le SoC Brazos à faible consommation d'AMD. Les années intermédiaires ont en grande partie vu la poursuite d'une tendance où Intel apporte lentement de petites améliorations incrémentielles des performances par rapport à la cadence de ses produits et de ses nœuds de transaction et collecte en toute sécurité des rendements financiers maximaux pour le moment.

Intel et AMD ont ciblé les graphiques intégrés comme stratégie importante dans leur développement futur.


Llano est devenu le premier microprocesseur Fusion orienté performance d'AMD conçu pour le marché général des ordinateurs portables et des ordinateurs de bureau. La puce a été critiquée pour les mauvaises performances du processeur et a été félicitée pour ses meilleures performances GPU.

De son côté, AMD a finalement sorti l'architecture Bulldozer en septembre 2011; La sortie initiale a été légèrement retardée sur la plupart des mesures de performance, grâce au processus de casting d'Intel et au programme de publication brutal de réduction d'architecture / de modèle (Tick-Tock). L'arme principale d'AMD reste une tarification agressive qui équilibre quelque peu la notoriété «accrocheuse» d'Intel parmi les vendeurs et les acheteurs de PC, permettant à AMD de maintenir une part de marché raisonnable de 15 à 19% d'année en année.

Le microprocesseur est venu au premier plan non pas parce qu'il était supérieur aux mainframes et aux mini-ordinateurs, mais parce qu'il était assez bon pour des charges de travail plus simples. Il est venu avec l'avènement du même concurrent dynamique à l'hégémonie du processeur x86: ARM.

Le microprocesseur est apparu non pas parce qu'il était supérieur aux images clés et aux mini-ordinateurs, mais parce qu'il était plus petit, moins cher et polyvalent que son prédécesseur, étant assez bon pour les charges de travail plus simples requises. La même dynamique a émergé avec l'avènement de l'informatique à faible coût pour défier l'hégémonie du processeur x86 en raison de la conception, du développement et du lancement de nouvelles classes de produits.

ARM a joué un rôle déterminant pour amener les ordinateurs personnels à l'étape suivante de son évolution et, tout en poursuivant son développement pendant plus de 30 ans, il avait besoin d'avancées dans de nombreux autres domaines de la conception de composants et de connecteurs, ainsi que pour vraiment pousser sa propre évolution. l'architecture que l'on voit partout aujourd'hui.

Le processeur ARM est né du besoin d'Acorn d'un coprocesseur bon marché pour Acorn Business Computer (ABC), qui a été développé pour défier le PC / AT d'IBM, Apple II et le HP-150 de Hewlett-Packard sur le marché des machines de bureau professionnelles. .

Sans puce qui réponde à l'exigence, Acorn a commencé à concevoir sa propre architecture basée sur RISC avec Sophie Wilson et Steve Furber, qui avaient auparavant tous deux conçu le prototype pour être le système informatique éducatif BBC Micro.

Steve Fulber au travail pendant le développement de BBC Micro au début des années 1980. Avec Sophie Wilson, il a dirigé la conception du premier microprocesseur ARM. (Bibliothèque britannique)

Le premier développement suivrait l'ARM1, qui formerait le cœur de traitement d'Archimède d'Acorn, suscitant l'intérêt d'Apple en tant que processeur approprié pour le projet PDA de Newton. Le programme de développement de la puce coïncidera avec une baisse de la demande d'ordinateurs personnels en 1984, ce qui a mis à rude épreuve les ressources d'Acorn.

Bien que Newton n'ait pas été un succès économique, son entrée dans le domaine de l'informatique personnelle a considérablement augmenté l'architecture d'ARM.

Confronté à des dettes d'assemblage provenant de l'inventaire invendu, Acorn a renvoyé ARM sous le nom de «Advanced Risk Machines». En échange de l'équipe de propriété intellectuelle et de développement d'Acorn et du fonds de développement d'Apple, le principal actionnaire d'Acorn, Olivetti, et la participation d'Apple dans la nouvelle société étaient déterminés à être de 43%. Les actions restantes seront détenues par le partenaire de production VLSI Technologies et le cofondateur d'Acorn Hermann Hauser.

Le premier design, l'ARM 600, a été rapidement remplacé par l'ARM 610, qui a remplacé le processeur Hobbit d'AT & T dans le PDA Newton. Newton et ses frères et sœurs licenciés (Sharp Expert Pad PI-7000) ont initialement utilisé 50000 lignes au cours des 10 premières semaines après le 3 août 1993, tandis que le prix de 499 $ et un bug de gestion de la mémoire constant affectant la reconnaissance de l'écriture manuscrite, y compris les coûts de développement de la gamme de produits pour Apple. dans la mesure où cela coûtera environ 100 millions de dollars.

Le concept Apple Newton briserait les imitateurs. En fournissant le processeur Hobbit pour le Newton original, AT&T anticipait un développement futur que Newton était prêt à acquérir Apple car il pourrait inclure la messagerie vocale, le prédécesseur du smartphone, et Newton approchait de l'état de production. Finalement, ce serait Simon Personal Communicator d'IBM qui mènerait la révolution des smartphones, quoique brièvement.

Bien que Newton n'ait pas été un succès économique, son entrée dans le domaine de l'informatique personnelle a considérablement augmenté l'architecture d'ARM. La sortie du noyau ARM7 suivie de l'impressionnante variante Thumb ISA ATM7TDMI conduirait directement à Texas Instruments, qui a signé un accord de licence en 1993, suivi de Samsung en 1994, DEC en 1995 et l'année suivante NEC. L'architecture historique ARMv4T contribuera également à conclure des accords avec le 6110, Nintendo pour la DS et Nokia pour la Game Boy Advance, et Apple entretient une relation de longue date avec son iPod.

Les ventes ont explosé avec le développement de l'Internet mobile et des machines de plus en plus performantes qui donnent accès au flux infini d'applications et tiennent les gens informés, divertis et vibrés. Cette expansion rapide a conduit à une sorte de convergence alors que les architectures d'ARM devenaient plus complexes, réduisant la redondance de traitement basée sur x86 et déplaçant les segments de marché vers des zones à faible coût et à faible consommation auparavant réservées aux puces RISC d'ARM.


Apple MessagePad 120 à côté de l'iPhone 3G (Photo: utilisateur Flickr admartinateur)

Intel et AMD ont gardé leurs paris en fusionnant avec des architectures basées sur ARM - ce dernier conçoit sa propre architecture K12 64 bits, et le premier entre en relation étroite avec Rockchip pour commercialiser l'initiative SoFIA d'Intel (SoC Silvermont Atom x86 64 bits) et fabriquer des puces architecturales ARM.

Les deux stratégies d'Intel visent à garantir que l'entreprise n'entre pas dans le même bourbier qui affecte les autres sociétés de semi-conducteurs qui fabriquent leurs puces, et garantit un débit élevé pour que les fonderies continuent de fonctionner efficacement. La maintenance de la base de moulage d'Intel est à la fois étendue et coûteuse et nécessite donc une production continue à grand volume pour rester viable.

Intel et AMD ont maintenu leurs enjeux depuis, en s'alliant avec des architectures basées sur ARM.

Les plus grands obstacles auxquels sont confrontées les forces traditionnelles de l'informatique personnelle, à savoir Microsoft et Intel, et dans une moindre mesure Apple et AMD, sont la vitesse que le modèle IP sous licence apporte à la concurrence des fournisseurs et à l'ensemble des principaux logiciels installés.

L'écosystème matériel et logiciel fermé d'Apple a longtemps été un obstacle à la pleine réalisation de la pénétration potentielle du marché, et la société se concentre sur la stratégie de marque et l'itération des clients sur la vente directe et les licences. Cela a relativement moins de succès sur les grands marchés émergents où MediaTek, Huawei, Allwinner, Rockchip et d'autres gagnent de l'argent pour des smartphones, tablettes et ordinateurs portables Android open source et alimentés par ARM, tout en opérant sur les marchés développés.

La présence globale d'Android sur le marché des smartphones alors que Microsoft se rassemble belle royauté Engagée dans l'écosystème open source et se débarrassant des produits Nokia basés sur Android, la société semble négliger la société de logiciels Cyanogen, qui séduit les personnes qui préfèrent leur Android sans Google.

Amazon et Samsung seraient également conformes à l'intérêt de Microsoft à s'associer ou à acheter directement avec Cyanogen. Alors que l'échelle de la société mondiale de l'informatique mobile devient évidente, Windows, le produit clé de voûte de Microsoft, se trouve à la croisée des chemins entre le passage à une interface graphique tactile centrée sur le mobile basée principalement sur les utilisateurs de bureau.

Une fois, Microsoft s'est retrouvé deuxième dans le choix du logiciel. En plus de faire face à la colère d'Android dans l'industrie mobile, Microsoft n'a pas pu apprendre de l'expérience de Hewlett-Packard avec l'écran tactile HP-150 il y a 30 ans - ce n'est pas parce que la productivité souffre lors du basculement entre souris / clavier et écran tactile, mais certains utilisateurs sont différents. La réticence à adopter une technologie a conduit de nombreux utilisateurs de bureau à résister à la vision de l'entreprise d'un système d'exploitation unifié pour tous les besoins informatiques des consommateurs.

À une occasion, Microsoft s'est retrouvé deuxième dans la sélection de logiciels, et son produit clé de voûte, Windows, est à la croisée des chemins entre le passage à une interface graphique centrée sur le mobile basée principalement sur les utilisateurs de bureau.

Le temps nous dira comment ces relations sont résolues, si les acteurs traditionnels fusionnent et échouent ou triomphent. Ce qui semble certain, c'est la convergence de l'informatique entre les segments de marché autrefois distincts et clairement définis. L'informatique hétérogène vise à combiner de nombreux systèmes différents avec des protocoles universels qui non seulement augmentent la connectivité utilisateur-utilisateur et utilisateur-machine, mais permettent également d'étendre la communication de machine à machine (M2M).

Cette initiative, «l'Internet des objets», reposera sur la collaboration et des normes ouvertes communes pour aboutir, pas exactement avec l'intérêt personnel généralisé que les grandes entreprises manifestent souvent. Cependant, en cas de succès, l'interconnexion comprendra plus de sept milliards d'appareils informatiques, y compris des ordinateurs personnels (ordinateur de bureau, mobile, tablette), des smartphones et des appareils portables, et près de 30 milliards d'autres appareils intelligents.

Cette série d'articles il se consacre en grande partie au matériel et aux logiciels qui ont défini les ordinateurs personnels depuis sa création. Les fabricants traditionnels de mainframe et de mini PC ont d'abord vu le microprocesseur comme une innovation - une solution peu coûteuse pour une gamme d'applications de base. En 40 ans, la technologie a évolué, passant d'une compétence limitée à l'assemblage de composants, au soudage et au codage, à la possibilité d'accéder à tous les coins du monde avec un balayage d'écran tactile pour les enfants d'âge préscolaire.

L'ordinateur est devenu un accessoire de mode et une méthode pour unifier le monde sans entrer personnellement dans le monde - de la lecture du code hexadécimal et de la compilation minutieuse du punch band à la surcharge sensorielle d'Internet d'aujourd'hui avec le chant des sirènes d'une fausse connexion humaine. Pendant ce temps, le cerveau humain utilisant la plupart des ordinateurs personnels est encouragé à être raccourci presque autant qu'il parle des expressions et du texte en langage moderne.

Les gens dépendent des microprocesseurs depuis longtemps. Alors que l'entreprise a commencé avec des pools de comptabilité, de secrétariat et de sténographie, la plupart de l'humanité compte maintenant sur les ordinateurs pour dire comment, quand et pourquoi nous nous déplaçons tout au long de la journée. La prochaine étape de l'histoire de l'informatique peut se concentrer de la mise en forme de notre technologie à la façon dont nous nous concentrons sur la façon dont notre technologie nous façonne.

Ceci est le cinquième et dernier volet de notre histoire de microprocesseur et de PC. De l'invention du transistor aux puces d'aujourd'hui qui alimentent nos appareils connectés, ne manquez pas de lire toute la série pour parcourir une série de jalons.