IBM va t il bouleverser nos PCs?

IBM va t il bouleverser nos PCs? - Carte mère - Hardware

Marsh Posté le 13-12-2004 à 10:55:20    

Lisez cet article !
 
 
http://www.onversity.com/cgi-bin/p [...] ts&P=a0804
 
moi je suis encore tout retourné...
 
 
Qu'en pensez-vous ?


Message édité par morganno le 13-12-2004 à 10:57:25
Reply

Marsh Posté le 13-12-2004 à 10:55:20   

Reply

Marsh Posté le 13-12-2004 à 11:05:48    

j en pense que ca fait un bout de temps que les PC made by IBM ne sont plus la reference alors a mon avis l inpact d une tel decision sera tres minim


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 11:06:47    

Citation :

architecture RISC qu'IBM a inventé


 
oula, j ai un gros doute la dessus kan meme.


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 11:09:01    

Citation :


 
La XBOX-2 de Microsoft et la PS3 de Sony disposeront de technologies graphiques très avancées. Dans le cas de la Xbox-2 dont le processeur graphique sera fourni par ATI, on sait aujourd'hui avec une quasi certitude qu'il s'agira de la base du processeur graphique R600. Ce processeur ne verra le jour pour les PC qu'en 2006 !


 
la console est prevu pour fin 2005, et sera a base de R500
 
 
commence a y avoir beaucoup d approximation dans cet article....


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 11:10:27    

Z_cool a écrit :

Citation :

architecture RISC qu'IBM a inventé


 
oula, j ai un gros doute la dessus kan meme.


 
http://search400.techtarget.com/sD [...] 66,00.html
 

Reply

Marsh Posté le 13-12-2004 à 15:11:24    

IBM est à l'origine de recherches ayant amené au terme RISC en 1970. Mais d'autres architectures employaient déjà les principes du RISC dans les années 60; la première architecture de type RISC était signée Cray et non IBM:
http://en.wikipedia.org/wiki/RISC#Early_RISC
 
 
Quant au Cell, attendons de voir ce que ça donne. La seule nouveauté du Cell, c'est d'intégrer une grosse unité vectorielle adaptée au rendu 3D comme à l'usage général (d'après les infos qu'on peut avoir). C'est novateur, mais je ne vois pas comment ça pourrait bouleverser l'ensemble du marché.
 
De plus l'article d'Onversity semble profondément anti-Intel (et pourtant je suis moi même pro-AMD) : pas extrèmement neutre donc.

Reply

Marsh Posté le 13-12-2004 à 15:16:07    

Citation :

La XBOX-2 de Microsoft et la PS3 de Sony disposeront de technologies graphiques très avancées. Dans le cas de la Xbox-2 dont le processeur graphique sera fourni par ATI, on sait aujourd'hui avec une quasi certitude qu'il s'agira de la base du processeur graphique R600. Ce processeur ne verra le jour pour les PC qu'en 2006 !


 
jamais une console pourra etre equipe en serie d'un gpu a sa sortie sans etre disponible depuis des mois et des mois sur pc (voir la gforce3 et la xbox par ex)
 
500€ de gpu dans une console, reste combien pour faire le reste  [:ddr555]


Message édité par gor123 le 13-12-2004 à 15:16:54

---------------
Feed Back
Reply

Marsh Posté le 13-12-2004 à 15:19:46    

gor123 a écrit :

Citation :

La XBOX-2 de Microsoft et la PS3 de Sony disposeront de technologies graphiques très avancées. Dans le cas de la Xbox-2 dont le processeur graphique sera fourni par ATI, on sait aujourd'hui avec une quasi certitude qu'il s'agira de la base du processeur graphique R600. Ce processeur ne verra le jour pour les PC qu'en 2006 !


 
500€ de gpu dans une console, reste combien pour faire le reste  [:ddr555]


 
ouais, c'est ca qui me fait marrer :D

Reply

Marsh Posté le 13-12-2004 à 15:20:53    

gor123 a écrit :

jamais une console pourra etre equipe en serie d'un gpu a sa sortie sans etre disponible depuis des mois et des mois sur pc (voir la gforce3 et la xbox par ex)
 
500€ de gpu dans une console, reste combien pour faire le reste  [:ddr555]


Tu te trompes:
1) Microsoft a de la thune
2) un R420 est produit en peu d'exemplaires --> c'est cher. Un 500 sera amorti par la production de masse
3) ils se remplissent les poches avec les royalties sur les jeux, pas en vendant des consoles
4) niveau puissance, le Xgpu est proche d'une Geforce4, le haut de gamme de l'époque.

Reply

Marsh Posté le 13-12-2004 à 15:28:45    

_JbM a écrit :

Tu te trompes:
1) Microsoft a de la thune
2) un R420 est produit en peu d'exemplaires --> c'est cher. Un 500 sera amorti par la production de masse
3) ils se remplissent les poches avec les royalties sur les jeux, pas en vendant des consoles
4) niveau puissance, le Xgpu est proche d'une Geforce4, le haut de gamme de l'époque.


 
entre le GF3 et le GF4


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 15:28:45   

Reply

Marsh Posté le 13-12-2004 à 15:44:46    

Bof j'avais déjà lu cet article. Même si en général les textes d'onversity sont très bons, je trouve quand même celui là très pessimiste dans l'ensemble.
 
Perso je doute que les PCs disparaissent au profit des consoles, même dans le pire des scénarios.
 
Peut être qu'effectivement il n'aura plus l'avantage graphique sur les jeux et encore j'en doute ...
 
De plus je vois pas pourquoi il dit que les processeurs des futures consoles de salon seront surpuissants ... IBM ils ont pas une technologie extraterrestre non ?
 
Je suis sûr que même pas 1 an après leurs sorties on aura déjà des processeurs PC (AMD  ou Intel) plus puissant que le CELL ou les futurs powerpc tri-core de la xbox 2.
 
Par contre je suis d'accord sur son opinion sur Intel, vu le budget recherche qu'ils ont quand on voit les perfs du prescott c'est vraiment du foutage de gueule ...
 
Même AMD avec un budget bien moindre arrive à faire jeu égal (voir même mieux) avec leurs athlon 64 ...
 
Sinon c'est vrai aussi que l'informatique en général a vraiment besoin d'une montée en puissance du processeur, car depuis quelques années ça stagne vraiment ... On le voit avec les  cgs de dernières générations (notamment le SLI) elles commencent vraiment à être sous exploitées à cause du proc.
 
Peut être que le multi-core donnera un nouveau souffle en terme de puissance comme l'a été la montée en fréquence les années passées.
 
Perso j'en doute surtout quand on lit cet article : http://www.onversity.com/cgi-bin/p [...] ts&P=a0604
 

Reply

Marsh Posté le 13-12-2004 à 15:46:12    

whaou l'article!!!
j'ai jamais vu autant de conneries c'est vraiment ouf!
à croire que l'auteur ne connait rien, et relaye des infos constructeur (prévisions) sans interet.
Le passage sur les consoles et la conclusion sont vraiments forts

Reply

Marsh Posté le 13-12-2004 à 16:00:10    

slr36 a écrit :


Sinon c'est vrai aussi que l'informatique en général a vraiment besoin d'une montée en puissance du processeur, car depuis quelques années ça stagne vraiment ... On le voit avec les  cgs de dernières générations (notamment le SLI) elles commencent vraiment à être sous exploitées à cause du proc.


 
pour moi, c est pas la que ca peche, c est sur le stockage, ok, la capacité augmente, mais la fiabilité ???? (quand je vois les HD de 500Go, je me dit : mon deu kan il est plein et qu il cramme....)  
 
et la vitesse ? les meilleur HD atteignent difficilement le 100Mo/s alors que tout le reste travail au Giga


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 16:20:33    

bon ça n'anime pas franchement le débat mais j'ai eu du mal a lire l'article tellement le style est ... nullissime !  
Pour le contenu on dirait la masturbation mentale d'un adolescent qui découvre le monde impitoyable des multinationales. Approximations et fantasmes. Un chef-d'oeuvre (dans son genre) :D

Reply

Marsh Posté le 13-12-2004 à 16:21:02    

Z_cool a écrit :

pour moi, c est pas la que ca peche, c est sur le stockage, ok, la capacité augmente, mais la fiabilité ???? (quand je vois les HD de 500Go, je me dit : mon deu kan il est plein et qu il cramme....)  
 
et la vitesse ? les meilleur HD atteignent difficilement le 100Mo/s alors que tout le reste travail au Giga


 
Pour les DD : quelqu'un à dis la meme chose quand il parlait du DD de 2go comparer à son dd de 4Mo
 


---------------
Cherche geekette | Traquez vos billets d'€ | Don du sang | Don de moelle osseuse
Reply

Marsh Posté le 13-12-2004 à 16:21:36    

n'empeche que ca reste LE périphérique qui ralentit tout le reste... et qui a le moins évolué niveau vitesse...


Message édité par morganno le 13-12-2004 à 16:22:11
Reply

Marsh Posté le 13-12-2004 à 16:28:30    

morganno a écrit :

n'empeche que ca reste LE périphérique qui ralentit tout le reste... et qui a le moins évolué niveau vitesse...


Ca dépend de l'application. Pour traiter des flux videos décompressés, oui; pour un jeu, non.
Après, il y a les temps de chargement, mais un système de fichier plus performant, une défragmentation régulière, et un cache plus conséquents apporteraient déjà beaucoup.

Reply

Marsh Posté le 13-12-2004 à 16:36:00    

morganno a écrit :

Lisez cet article !
 
 
http://www.onversity.com/cgi-bin/p [...] ts&P=a0804
 
moi je suis encore tout retourné...
 
 
Qu'en pensez-vous ?


 
oui tous le monde en parle
 
 
http://zdnet.fr/actualites/busines [...] 950,00.htm

Reply

Marsh Posté le 13-12-2004 à 16:54:43    

com21 a écrit :

Pour les DD : quelqu'un à dis la meme chose quand il parlait du DD de 2go comparer à son dd de 4Mo


 
oui ba la fiabilité c est guere amelioré.


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 16:55:21    

elle s'est meme empiré, d'apres moi... Mon 40Mo tourne tjrs sur mon antique 386SX 16Mhz...

Reply

Marsh Posté le 13-12-2004 à 16:56:52    

_JbM a écrit :

Ca dépend de l'application. Pour traiter des flux videos décompressés, oui; pour un jeu, non.
Après, il y a les temps de chargement, mais un système de fichier plus performant, une défragmentation régulière, et un cache plus conséquents apporteraient déjà beaucoup.


 
le passage d un cache de 2 a 4 Mo a montrer une amelioration tres negligeable.
 
le jour ou l on aurra un cache de 80 Go, la je dis pas ce sera bien mieux.
 
kan a dir ke les jeux n on pas besoin de meilleur HD .... comment dire, les 5 minutes d attente de chargement avant un Level, ca te gave pas ?


---------------
#mais-chut
Reply

Marsh Posté le 13-12-2004 à 17:13:07    

j'ai eu un dd de 30go maxtor payé 1500F qui est mort en 1 an et demi. J'ai encore un 4go payé 800F ya des années qui tourne 24h/24 ds mon pc sur lequel je fais plein d'accès.

Reply

Marsh Posté le 13-12-2004 à 17:23:49    

dans un sens ça veut pas dire grand chose :D


---------------
Cherche geekette | Traquez vos billets d'€ | Don du sang | Don de moelle osseuse
Reply

Marsh Posté le 14-12-2004 à 11:24:03    

_JbM a écrit :

IBM est à l'origine de recherches ayant amené au terme RISC en 1970. Mais d'autres architectures employaient déjà les principes du RISC dans les années 60; la première architecture de type RISC était signée Cray et non IBM:
http://en.wikipedia.org/wiki/RISC#Early_RISC
 
 
Quant au Cell, attendons de voir ce que ça donne. La seule nouveauté du Cell, c'est d'intégrer une grosse unité vectorielle adaptée au rendu 3D comme à l'usage général (d'après les infos qu'on peut avoir). C'est novateur, mais je ne vois pas comment ça pourrait bouleverser l'ensemble du marché.
 
De plus l'article d'Onversity semble profondément anti-Intel (et pourtant je suis moi même pro-AMD) : pas extrèmement neutre donc.


 
Cray a mis au point un système cablé. Il n'y a pas de papier de Cray définissant le RISC non plus a cette époque. La machine de Cray me semble avoir certains des éléments de ce qu'on nomme le RISC aujourd'hui par contraintes technologiques et non pas un choix conceptuel. C'est IBM qui fit des recherches en ce sens et proposa une architecture dont les propriétés ont amené et ont défini le RISC.  Il me semble donc que l'analyse de wikipedia est une analyse a posterio.  
 
Le lien reste quand même très interessant :).


Message édité par barbarella le 14-12-2004 à 11:28:17
Reply

Marsh Posté le 14-12-2004 à 11:31:25    

Z_cool a écrit :

Citation :


 
La XBOX-2 de Microsoft et la PS3 de Sony disposeront de technologies graphiques très avancées. Dans le cas de la Xbox-2 dont le processeur graphique sera fourni par ATI, on sait aujourd'hui avec une quasi certitude qu'il s'agira de la base du processeur graphique R600. Ce processeur ne verra le jour pour les PC qu'en 2006 !


 
la console est prevu pour fin 2005, et sera a base de R500
 
 
commence a y avoir beaucoup d approximation dans cet article....


 
Le R600 devait s'appeler le R500. ATI a changé ses plans en cour de route. Le R500 est devenu le R600 pour les GPU pour CG des PC, mais le GPU de la Xbox-2 est resté le R500. Dans tous les cas, R500 console et R600 PC devrait avoir de nombreux points en communs dont une unification des shaders. Le GPU de la XBOX-2 ne sera donc pas basé sur l'archi R3XX, R4XX ou R5XX

Reply

Marsh Posté le 14-12-2004 à 14:58:23    

Même pas peur. C'est pas IBM qui décide qui/où/quoi/quand/comment maintenant dans le monde de l'info. C'est un ensemble de constructeurs. :o

Reply

Marsh Posté le 14-12-2004 à 15:38:53    

morganno a écrit :

Lisez cet article !
 
 
http://www.onversity.com/cgi-bin/p [...] ts&P=a0804
 
moi je suis encore tout retourné...
 
 
Qu'en pensez-vous ?


 
Beau pamphlet anti Intel en partie justifié. IBM a toujours régulé le marché contre le tandem Wintel.
 
En revanche, l'auteur oublie que le PC a résisté à TOUTES les attaques depuis les années 80.
Pourquoi ? Principalement à cause du parc installé et de la compatibilité ! C'est l'atout maître du monde x86 .... (et aussi son boulet).
 
Sinon on trouve quelques boulettes dans cet article.
 

Citation :


Pour la partie calcul (collision, géométrie, IA, ...) les PC seront littéralement relégués au musée. Certains annoncent une puissance de calcul géométrique jusqu'à 10 fois supérieure à ce qu'on peut faire de mieux aujourd'hui sur PC. Comment est-ce possible ? En premier lieu ces consoles seront équipées de core, chacun disposant d'une puissance de calcul de même grandeur que les plus performants microprocesseurs actuels. On parle même de plusieurs microprocesseurs multicore.


 
D'après certains, si le cpu CELL de la PS3 est puissant c'est pour compenser une partie graphique plus faible.  
http://arstechnica.com/news.ars/po [...] -4440.html
 
Et n'oublions pas que peu de données filtrent sur le cell. De plus il est exclu que les minicores aient une puissance équivalente à un core complet x86.
Voici un excellent article sur les cpu à mini cores :
 
http://www.aceshardware.com/read.jsp?id=65000333
 
 

Citation :

De même, il est difficile de croire qu'IBM et Sony aient investi d'importantes sommes rien que pour faire des consoles de jeux à long terme, ou encore qu'IBM reste à la pointe de la conception et la fabrication des microprocesseurs seulement pour faire des PowerPc pour les Apple et des Power pour des serveurs haut de gamme.


 
Les sommes investies par IBM le sont avant tout pour son marché historique, les mainframes.
L'architecture POWER est rentabilisé sur un marché où les marges sont fortes.
Le PowerPC 970 qui équipe entre autre les Apple (et est destinés à concurrencer les cpu x86-64 sur les petits serveurs) a été développé à moindre coût en partant de l'artchitecture POWER. En gros ils ont augmenté la profondeur du pipeline pour gagner en fréquence, avec l'astuce du groupage des micro-instructions par paquets (avec des conditions). Cela évite de se charger en transistors de suivit des instructions, comme dans le p4. On peut augmenter les fréquences sur une archi préexistante. Intel utilise un peu la même chose pour le Pentium-M basé sur le pIII.
 
Enfin pour les consoles, Sony participe aux recherches, et le cell utilise aussi l'archi POWER
http://arstechnica.com/news.ars/po [...] -4421.html
 

Citation :


Montée en fréquence des PowerPC (en 3 ans on passe de 500 MHz à 2,5 GHz)


 
Les PowerPC étaient jusqu'ici développé par Motorola, IBM et Apple.
La stagnation des G4 est due au fait que Motorola a jeté l'éponge.
IBM est donc venu à la rescousse d'Apple avec son 970 (cf plus haut).
L'architecture du 970 n'a rien à voir avec les G4. Pour simplifier à l'extême le G4 (pipeline de 6) serait comparable aux Athlons et le 970 aux p4 (pipeline de 16 contre 20 ou 31 sur les p4, hautes fréquences, moins bon rendement). Rien d'étonnant donc à l'augmentation subite des fréquences sur les G5.
On passe d'un G4 à bout de souffle à un nouveau 970 enrichit en hertz...


Message édité par josedsf le 14-12-2004 à 16:28:29

---------------
Guide cpu / Zen5
Reply

Marsh Posté le 14-12-2004 à 16:27:50    

josedsf a écrit :

Beau pamphlet anti Intel en partie justifié. IBM a toujours régulé le marché contre le tandem Wintel.
 
C'est pour ça qu'IBM s'est vu dépossédé de son bébé. Ils ont a un moment régulé, mais depuis 10 ans plus vraiment
 
En revanche, l'auteur oublie que le PC a résisté à TOUTES les attaques depuis les années 80.
 
Ce n'est pas une attaque contre les PC a laquelle il faut s'attendre, mais a la création d'autre chose, qui rendra la vie dure aux PC. Le but n'est donc pas de faire un PC bis
 
 
Pourquoi ? Principalement à cause du parc installé et de la compatibilité ! C'est l'atout maître du monde x86 .... (et aussi son boulet).
 
 
Sinon on trouve quelques grosses incohérences/incompréhensions dans cet article.
 

Citation :


Pour la partie calcul (collision, géométrie, IA, ...) les PC seront littéralement relégués au musée. Certains annoncent une puissance de calcul géométrique jusqu'à 10 fois supérieure à ce qu'on peut faire de mieux aujourd'hui sur PC. Comment est-ce possible ? En premier lieu ces consoles seront équipées de core, chacun disposant d'une puissance de calcul de même grandeur que les plus performants microprocesseurs actuels. On parle même de plusieurs microprocesseurs multicore.


 
D'après certains, si le cpu CELL de la PS3 est puissant c'est pour compenser une partie graphique plus faible.  
http://arstechnica.com/news.ars/po [...] -4440.html
 
C'est oublier la conception de la PS2. Le concept architectural de la PS2 et de centraliser la majorité des calculs et surtout ceux de géométrie aux processeurs vectoriels. Je me demande donc s'il n'y aurait pas une confusion entre un processeur Graphique qui ne posséderait pas de puissance de calul pour la géométrie (par exemple) et un processeur graphique performant qu'on identifie aux GPU des CG actuels dans les PC. La question pour la PS3 est en fait de savoir s'ils vont reprendre le même concept architecturale
 
Et n'oublions pas que peu de données filtrent sur le cell. De plus il est exclu que les minicores aient une puissance équivalente à un core complet x86.
Voici un excellent article sur les cpu à mini cores :
 
http://www.aceshardware.com/read.jsp?id=65000333
 
 

Citation :

De même, il est difficile de croire qu'IBM et Sony aient investi d'importantes sommes rien que pour faire des consoles de jeux à long terme, ou encore qu'IBM reste à la pointe de la conception et la fabrication des microprocesseurs seulement pour faire des PowerPc pour les Apple et des Power pour des serveurs haut de gamme.


 
Les sommes investies par IBM le sont avant tout pour son marché historique, les mainframes.
L'architecture POWER est rentabilisé sur un marché où les marges sont fortes.
 
Avoir de fortes marges n'implique pas d'avoir un retour suffisant sur le R&D. Or les couts de R&D sur le SOI, le multi-core, architecture de processeurs, ... dépassent a mon avis les seules marges qui peuvent d'être dégagées par les Power.
 
 
Le PowerPC 970 qui équipe entre autre les Apple (et est destinés à concurrencer les cpu x86-64 sur les petits serveurs) a été développé à moindre coût en partant de l'artchitecture POWER.  
 
C'est plus subtil que ça. IBM a unifié (au moins en partie) ses architectures afin non seulement d'avoir un retour sur R&D plus rapide, mais aussi pour transférer plus rapidement et plus simplement des évolutions technologiques d'un microprocesseur a un autre.
 
En gros ils ont augmenté la profondeur du pipeline pour gagner en fréquence, avec l'astuce du groupage d'instruction par paquets. Cela évite de se charger en transistors de suivits des instructions comme dans le p4, et permet d'augmenter les fréquences sur une archi qui n'est pas faite pour çà à la base. Intel utilise un peu la même chose pour le Pentium-M basé sur le pIII.
 
 
Enfin pour les consoles Sony participe aux recherches.
 

Citation :


Montée en fréquence des PowerPC (en 3 ans on passe de 500 MHz à 2,5 GHz)


 
Les PowerPC étaient jusqu'ici développé par Motorola, IBM et Apple.
La stagnation des G4 est due au fait que Motorola a jeté l'éponge.
IBM est donc venu à la rescousse d'Apple avec son 970 (cf plus haut).
L'architecture du 970 n'a rien à voir avec les G4. Pour simplifier à l'extême le G4 (pipeline de 6) serait comparable aux Athlons et le 970 aux p4 (pipeline de 16 contre 20 ou 31 sur les p4, hautes fréquences, moins bon rendement). Rien d'étonnant donc à l'augmentation subite des fréquences sur les G5.
 
En fait IBM a commencé d'abord a aider Motorola dans le design du G4 et c'est devenu en fait le G4+. Ensuite Apple s'est adressé diretement a IBM car le G5 que motorola proposait ne satisfaisait pas du tout Apple (il y avait bien un projet G5 chez motorola).
 
Ibm a conçu le 970. Qui est une évolution du G4+ mais avec des idées du Power 4. G4 et G5 peuvent faire tourner les mêmes programmes, ils disposent tout les deux de l'unité vectorielle Altivec et ont une architecture RISC. Le G5 est donc une belle évolution du G4. Ils ont plus de points communs que de différences.

 
 


Message édité par barbarella le 14-12-2004 à 16:28:28
Reply

Marsh Posté le 14-12-2004 à 16:35:14    

barbarella t'as trollé là:
 

Citation :


L'AGP n'a jamais tenu vraiment ses promesses et un PCI-X aurait pu faire tout aussi bien. L'USB n'est pas un succès technologique et on cherche toujours où est l'USB-3.Les slot-1 étaient une idée ridicule, la preuve c'est qu'ils ont disparu.


 
ça fait gamin de 16 ans qui débarque 5ans après sans avoir réfléchi.

Reply

Marsh Posté le 14-12-2004 à 16:36:45    

sinon pour quelques autres trucs je suis entièrement d'accord.

Reply

Marsh Posté le 14-12-2004 à 16:39:17    

sinon barbarella, le maitre-mot de la communication autour des consoles de jeu vidéo est le FUD.
ils annoncent du hardware démentiel, avec des unités de perfs qui ne veulent rien dire, et finalement, au bout d'un moment "ha bah finalement non on a abondonné cette archi, on va faire plus simple".
 
-------
 
pour OS/2.
OS/2 est issu initialement d'un codéveloppement IBM/MS, pas que MS.
 
le DOS étant une réussite commerciale, il fallait offrir la continuité de service aux entreprises, ce qui résume tout l'histoire du PC depuis 20 ans, le marché s'est orienté vers les solutions batardes permettant la réutilisation des vielles applis.  
 
je sais dommage pour OS/2 je l'eu apprécié pendant un moment. (du moins les dernières, OS/2 prouvait que l'on pouvait faire des choses potentiellement robustes dans le principe sur PC).
 
-----
 
Le PowerPC est excellent, mais as-tu regardé les datasheets et docs de progs sur l'Itanium (c'est un monde de ne pas en parler dans cet article, enfin :D) ? il y a des choses interressantes aussi.
bref tout ça pour dire, que si Motorola a posé un nouveau jeu d'instruction très tôt avec le PowerPC au moment de la sortie du premier Pentium, intel a fait pas mal d'essais ratés pour mettre en parallèle autre chose avec le x86.
 
pour ce genre de trucs y'a une réponse simple:

Citation :


Un bus de communication MCA, bien plus performant que l'ISA utilisé depuis 1981. Un nouveau contrôleur de disque dur (si quelqu'un se souvient du nom qu'il me le communique). Mais voilà, ni Intel ni les sociétés gravitant autour du succès du PC ne souhaitaient voir IBM reprendre le contrôle


 
License, brevet, royalties.
 


Message édité par bjone le 14-12-2004 à 16:53:28
Reply

Marsh Posté le 14-12-2004 à 16:43:46    

bjone a écrit :

barbarella t'as trollé là:
 
ça fait gamin de 16 ans qui débarque 5ans après sans avoir réfléchi.


 
remarque très constructive. non c'est vrai :D. T'as l'intention de m'en ressortir d'autres comme ça, parceque si c'est le cas dit le tout de suite comme ça je m'envais :D


Message édité par barbarella le 14-12-2004 à 16:45:27
Reply

Marsh Posté le 14-12-2004 à 16:49:49    

bjone a écrit :

sinon barbarella, le maitre-mot de la communication autour des consoles de jeu vidéo est le FUD.
ils annoncent du hardware démentiel, avec des unités de perfs qui ne veulent rien dire, et finalement, au bout d'un moment "ha bah finalement non on a abondonné cette archi, on va faire plus simple".


 
C'est un peu court ;). IBM travaille depuis plusieurs années sur différentes technologies. Le CELL en est la concrétisation pour l'instant entre autre. Qu'il y ait de la manipulation c'est clair, mais de la a résumer tout les actes de R&D de manipulation je n'adhère pas a cette idée. Je la trouve même sinique et désabusé sous certains aspects.  
 
Ma pensée est qu'il y a une volonté de faire autre chose qu'un PC (pas un concurrent direct et qu'IBM est bien placé pour le faire. mais pas seulement MS aussi quoique pas en avance et avec moins d'armes actuellement pour le faire.

Reply

Marsh Posté le 14-12-2004 à 16:58:13    

barbarella a écrit :

remarque très constructive. non c'est vrai :D. T'as l'intention de m'en ressortir d'autres comme ça, parceque si c'est le cas dit le tout de suite comme ça je m'envais :D


 
là tu me déçois.
le concept de l'AGP s'arrête à la largeur de bus et à la fréquence de travail ? le DIME/GART ça sert à rien peut-être ?
 
"L'USB n'est pas un succès technologique": heu trouve moi un bus aussi économique que l'USB et répondant aussi bien aux contraintes des périphériques basses-perfs, heuuuuuuuuu..... le firewire depuis qu'Apple a laché le brevet ? pas sûr que ce soit aussi cheap.
 
"Les slot-1 étaient une idée ridicule, la preuve c'est qu'ils ont disparu"
celle-là elle est splendide de rigueur scientifique.
 
c'est surtout surprenant de ta part (au niveau de la rigueur de l'analyse sur certaines choses).


Message édité par bjone le 14-12-2004 à 17:00:17
Reply

Marsh Posté le 14-12-2004 à 16:59:33    

Moi ausi je suis mitigé sur l'USB

Reply

Marsh Posté le 14-12-2004 à 17:01:07    

oué c'est vrai les souris et les claviers on va les mettre en firewire, ou en port série sur une DB25. c'est tellement mieux.

Reply

Marsh Posté le 14-12-2004 à 17:01:43    

bjone a écrit :

sinon barbarella, le maitre-mot de la communication autour des consoles de jeu vidéo est le FUD.
ils annoncent du hardware démentiel, avec des unités de perfs qui ne veulent rien dire, et finalement, au bout d'un moment "ha bah finalement non on a abondonné cette archi, on va faire plus simple".
 
-------
 
pour OS/2.
OS/2 est issu initialement d'un codéveloppement IBM/MS, pas que MS.
 
Là on a un petit litige historique. Pour moi c'est une commande d'IBM a MS, puis IBM a repris le bébé avec une phase de codev a un moment durant la transition. Comment faire pour trouver le vrai ? mais moi je veux bien que ça soit un codev dès le début, mais ce n'est pas le souvenir que j'en ai.
 
le DOS étant une réussite commerciale, il fallait offrir la continuité de service aux entreprises, ce qui résume tout l'histoire du PC depuis 20 ans, le marché s'est orienté vers les solutions batardes permettant la réutilisation des vielles applis.  
 
je sais dommage pour OS/2 je l'eu apprécié pendant un moment. (du moins les dernières, OS/2 prouvait que l'on pouvait faire des choses potentiellement robustes dans le principe sur PC).
 
-----
 
Le PowerPC est excellent, mais as-tu regardé les datasheets et docs de progs sur l'Itanium (c'est un monde de ne pas en parler dans cet article, enfin :D) ? il y a des choses interressantes aussi.
bref tout ça pour dire, que si Motorola a posé un nouveau jeu d'instruction très tôt avec le PowerPC au moment de la sortie du premier Pentium, intel a fait pas mal d'essais ratés pour mettre en parallèle autre chose avec le x86.
 
L'EPIC prometait bcp, mais force est de constaté qu'il reste cantoné aux itanium. Ou sont les architecture EPIC pour processeur grand public ou même simplement workstation ? Il y a là des interrogations a se faire
 
pour ce genre de trucs y'a une réponse simple:

Citation :


Un bus de communication MCA, bien plus performant que l'ISA utilisé depuis 1981. Un nouveau contrôleur de disque dur (si quelqu'un se souvient du nom qu'il me le communique). Mais voilà, ni Intel ni les sociétés gravitant autour du succès du PC ne souhaitaient voir IBM reprendre le contrôle


 
License, brevet, royalties.
 
J'ai deja répondu a cet argumment sur les forums d'Onversity et longuement. En bref il est juste mais il existe d'autres théories et aucune a elles seules ne peuvent expliquer le succès du PC

Reply

Marsh Posté le 14-12-2004 à 17:06:15    

bjone a écrit :

oué c'est vrai les souris et les claviers on va les mettre en firewire, ou en port série sur une DB25. c'est tellement mieux.


 
En PS/2 tout simplement mieux pour moi. Je fuis l'USB pour les souris et clavier. En failsafe ça le fais trop en fait.
 
En plus ta remarque est vraiment de bas niveau. J'ai dis que j'étais mitigé et toi tu réponds comme si je m'étais approprié les propos de l'autre en disant que c'est la daube finale.
 
Bref

Reply

Marsh Posté le 14-12-2004 à 17:08:10    

oki, là je préfère.
 
disons que globalement il est regrettable que pour assoir un monopole ou assurer la continuité de service, des techno supérieures n'ont pas percée, c'est vrai.
 
bon maintenant sur les bus MCA, c'est pas non plus une grosse perte.
 
disons que c'est vrai l'archi 80x86 aurait pu être abandonnée depuis longtemps, et linux est interressant pour permettre aux jeux d'instructions non 80x86 de percer.
 
et il probable que la mort du 80x86 se recouvre avec la perçée de linux ;)

Reply

Marsh Posté le 14-12-2004 à 17:11:32    

bjone a écrit :

là tu me déçois.
le concept de l'AGP s'arrête à la largeur de bus et à la fréquence de travail ? le DIME/GART ça sert à rien peut-être ?
 
Super. donc je peux jouer a Doom3 avec ma G400 de 16 Mo grace au Dime parceque j'ai 1 Go de RAM sur ma CM ? Quelle blague :D ! C'est pourtant cette idée qui a été vendu avec l'AGP en 1997/98.
 
"L'USB n'est pas un succès technologique": heu trouve moi un bus aussi économique que l'USB et répondant aussi bien aux contraintes des périphériques basses-perfs, heuuuuuuuuu..... le firewire depuis qu'Apple a laché le brevet ? pas sûr que ce soit aussi cheap.
 
ce n'est pas parcequ'on ne trouve rien a propsoer d'autre qu'on doit accepter ce qu'on nous propose. L'USB dans le principe ok, mais c'est très perfectile et Intel ne semble pas préssé de le faire, alors ou est l'USB-3 ?
 
 
"Les slot-1 étaient une idée ridicule, la preuve c'est qu'ils ont disparu"
celle-là elle est splendide de rigueur scientifique.
 
La c'est clair je devais être fatigué. j'améliorais ça
 
c'est surtout surprenant de ta part (au niveau de la rigueur de l'analyse sur certaines choses).
 
Bah, j'ai prévilégié le raisonnement global aux détails. ça arrive. Mais j'ai différentes amélioraitons en courts pour l'article. J'suis pas devenu borné brusquement non plus :D


Message édité par barbarella le 14-12-2004 à 17:13:17
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed