News 22.09.2009, 23:01 Uhr

«Yes, we gähhnn»: schlapper IDF-Auftakt

In der höhepunktarmen IDF-Eröffnungsrede zeigte Intel-Chef Paul S. Otellini einen leistungsstarken PC, der CPU und Grafik in einem Baustein vereint. «Larrebee» enttäuschte.
Gleich zu Beginn der IDF-Eröffnungsrede (Intel Developer Forum) zeigte Intel-CEO Paul S. Otellini eine fertiggestellte Wafer-Scheibe, die in 22-nm-Strukturbreite gefertigt wurde. Ein wichtiger Schritt, wenn man bedenkt, dass Intels aktuelle Chips derzeit noch in 45 Nanometern verkauft werden. Die nachfolgende neue CPU-Chip-Architektur (Codename «Westmere») wird in 32 Nanometern gefertigt, und soll noch im vierten Quartal 2009 erscheinen. Einer der wichtigsten Pfeiler von Intels zukünftiger Strategie: Der Halbleiterhersteller entwickelt CPUs wie auch soc-Versionen (system-on-chip) der jeweiligen neuen Technologiegeneration gemeinsam. Das lässt sich mit zunehmender Verkleinerung einfacher realisieren. Zudem können immer mehr Funktionseinheiten in eine CPU hinein gepackt werden.
Otellini zeigte im Anschluss Intels zukünftiges-Produktportfolio in der Desktop- und Mobil-Sparte. Gewürzt wurde das Ganze mit einer Live-Demo, in der er eine verschlüsselte WinZip-Datei parallel von einem alten P4- und mobilen «Arandale»-Zweikernsystem (Arandale = mobile Westmere-Architektur, die in 32 Nanometern hergestellt wird) entschlüsseln liess. Natürlich gewann der Laptop. Ein Tipp mit dem Fingerzeig, was wohl anwesende Unternehmen dazu animieren sollte, ihre in die Jahre gekommenen PCs gegen neue Rechner auszutauschen.
Live-Demo von Sandy Bridge
Den wohl spannendsten Moment gab es, als Otellini einen Desktop-Prototyp mit der, so Intel, «next-next-generation»-CPU zeigte. Dabei handelte es sich um einen Desktop-PC, der eine Sandy-Bridge-CPU inklusive Grafikeinheit im CPU-Kern beherbergte. Hintergrund: Sandy-Bridge-CPUs haben eine komplett neue Chip-Architektur und Grafikkern der sechsten Grafikgeneration auf dem CPU-Chip. Vor allem mit AVX (Advanced Vector Extension), einem neuen Befehlssatz, sollen Floating-Point-, Media- und CPU-intensive Berechnungen beschleunigt werden.

Lesen Sie auf der nächsten Seite: Intel zeigt erste lauffähige Spiele-Demo mit Larrabee.



Kommentare
Avatar
Google
23.09.2009
Hmm, wie sieht wohl die Zukunft aus? Wenn die jetzt noch den RAM und diverse Controller vom Mainboard in die CPU bauen, dann haben wir in ein paar Jahren eine reine CPU als Computer? Festplatten brauchen wir ja dank Web-Streaming auch nicht mehr.. Cool, dann können wir endlich Crysis auf der digitalen Armbanduhr spielen ^^

Avatar
Midori
23.09.2009
Ich denke diese "negativen" Sachen die beim Sandy Bridge augefallen sind, werden sicherlich in nächster Zeit stark verbessert. Würde ich auch sagen! Für eine totale Neuheite finde ich die Leistung ganz ordentlich. Ich frage mich nur, wie grossen Einfluss das Ganze auf die Gesamtperformance bei Games hat, ob da der Grafikchip in der CPU durch eine Grafikkarte "überstimmt" wird oder ob sie wirklich etwas nützt. Wenn das so weiter geht gibts bald nur noch Intel als Halbleiterproduzent und diverse Mainboardhersteller. Vielleicht noch Arbeitsspeichermanufakturer. Von AMD fange ich schon gar nicht an... wenn die nicht schnellsmöglich auf den Zug aufspringen oder eine andere Richtung einschlagen, ists aus, würde ich mal sagen. Doch zugegeben, AMD verhält sich sehr geschickt! Intel muss sich schon ziemlich anstrengen, nicht leistungstechnisch, sondern preislich! Wir Intel billiger, ist eben AMD noch billiger. Und irgendwei bringt es AMD fertig, mit kleinem Aufwand, wenigen Prozessoren viele Gebiete abzudecken. Intel hat alleine von den Atom-CPUs - wie viele? - 460 Typen. Oder habe ich da etwas falsch verstanden?

Avatar
hwRob
23.09.2009
so jungs, ma butter bei die fische... hab ich was verpasst? Ich denke diese "negativen" Sachen die beim Sandy Bridge augefallen sind, werden sicherlich in nächster Zeit stark verbessert. welche negativen sachen von Sandy Bridge? meint ihr nicht Larrabee? Larrabee sorgt effektiv für etliche Fragen und ist für etliche Falten im Gesicht verantwortlich. Bin gespannt ob sich intel mit diesem massively many core Projekt doch nicht übernimmt. Klar man hat Entwickler geholt, aber allesamt leute die über Jahre nicht mehr an einem Highendgrafikchip gearbeitet haben. Diese Leute haben sich ATI/nVidia schon lange gekrallt. Schon seit Monaten ist wirklich fraglich ob die erste Generation von Larrabee überhaupt das Segment Highend erfüllen kann. Gerüchte besagen, dass aktuell die Leistung einer nVidia GTX285 erreicht wird. Zum Zeitpunkt des Lunches nur noch Mittelklasse, wenn überhaupt! Zweifel gibts natürlich auch, ob es der richtige Ansatz ist 3D wieder mit Software-Rendering darzustellen. ich sags mal so, Larrabee wird floppen. Sollte Raytracing dann mal wiirklich ein Themawerden für Games, Können die Karten neu geschmischt werden.

Avatar
killer_91
24.09.2009
Sorry ja natürlich habe ich Larrabee gemeint...:o Ich denke eigentlich müsste dieser CPU/GPU gar nicht unbedingt ins High End Segment, denn man muss sich das mal vorstellen, sagen wir ein i7 920 oder änliches hat noch eine GTX 295 integriert. Ich mache mir einfach ein bisschen Sorgen um die Wärme. Meine GTX 260 wird beim Gamen von ETW auf Ultra Stufe schon 65° warm, und vom CPU spreche ich noch gar nicht. Wenn das funktionieren sollte müssen die Mainboard komplett anders aufgebaut werden damit man bessere und grössere Kühllösungen verbauen kann. Ich denke es funktioniert, denn es würde geil aussehen bis jetzt, dann wird Larrabee den ganzen Markt umstellen und sämtliche bis jetzt gesehenen Techniken über den Haufen werfen. Totale Neuheit!!! :confused:

Avatar
hwRob
24.09.2009
dazu braucht intel aber erstens einen Wundertreiber der aus der x86 Architektur (ein leichters modifizierter PentiumMMX ;) ) das absolute max. rauskitzelt. Bei heutigen bis mittelfristigen Games wird das meiste via Hardwarebeschleunigung gerendert. ATI/nVidia haben hochspezialisierte Grafikprozessoren, welche diese vornehmen. Larrabee muss das ganze emulieren/via software rendering durchführen - da brauchts gewaltige rechenpower. Intel gibt ja ~2 Teraflop an... ATI's neue 5870 hat 2,7Teraflops... :rolleyes: Intel bekommt nur Aktzeptanz wenn sie beweisen können, wie gut DirectX und OpenGL/CL basierende Games (und das sind ja nicht wenige :D ) auf Larrabee laufen. Warum viele Skepsis zeigen ist under anderem auch, dass Intel sonst die "Genialität" und die "Power" nicht versteckt sondern offen kommuniziert. Bei Larrabee labert man seit Monaten/Jahren um den heissen brei herum und zeigt immer wieder die selben langweiligen Raytracing Effekte. Daniel Pohl (godfather of RT bei IntelLabs) pusht alle Jahre mit einem neuen Artikel bei ComputerBase. Quake III & ET hängen mir langsam ausm Hals raus. Ich will sehen was larrabee bei aktuellen Spielen bringt und nicht was für tolle Effekte möglich sind. Wohlgemerkt mit einer Technologie die noch voll in der Entwicklung steht und Hardwareressourcen benötigt die so noch nicht vorhanden sind. Sollte ich mich, wie viele andere, täuschen und Intel bringt das Wunderding, dann gehör ich mit Garantie mit zu den Ersten die eine solche Karte holen - sofern auch Energietechsnisch alles auf grün steht!

Avatar
killer_91
25.09.2009
Sollte ich mich, wie viele andere, täuschen und Intel bringt das Wunderding, dann gehör ich mit Garantie mit zu den Ersten die eine solche Karte holen - sofern auch Energietechsnisch alles auf grün steht! hehe naja es sind dann eben keine Karten mehr ;)

Avatar
hwRob
25.09.2009
:rolleyes: selbstverständlich wird Larrabee eine Grafik"Karte" - zwar auf GPGPU basis. Am Prinzip mit der Steckkarte ändert sich vorerst nichts. - Wird sich im Highendsektor voererst (kurz- und mittelfristig) auch nicht verändern ;) Glaube kaum, dass Intel Mainboards bringt mit separaten GPGPU Socket für Larrabee + natürlich Sep. VRAM Sockets für GDDR5... wäre sicherlich ein interessantes setup.. :rolleyes: Sobald Larrabee ins CPU DIE schlüpft ists was anderes. Aber das dauert auch wiederum noch was. und bis hier von Highend-Grafik gesprochen werden kann dauerts noch etliche Jahre. Eine CPU mit einer volständigen Larrabee Einheit ist heute schon nur durch die Fertigungsgrösse (45nm/32nm) schlicht nicht realiserbar, ohne einen XXL-XXL Sockel zu entwerfen der die grösse hat, den benötigten Strom liefern kann ;)

Avatar
killer_91
28.09.2009
jop aprpos Mainboard. Intel hat heute ein Mainboard vorgestellt für diesen CPU!