«Yes, we gähhnn»: schlapper IDF-Auftakt

Intel zeigt erste lauffähige Spiele-Demo ...

Intel mit Atom-Developer-Programm
Neue Wege will Intel bei der Vermarktung der Atom-CPU-getriebenen Mobilgeräte gehen. Hier kündigte man im Rahmen des neu geschaffenen «Developer Program» an, dass man eine Framework-Architektur in die zukünftigen Netbooks und Handhelds implementiere, die es Firmen gestatte, ihre Applikationen Kunden anzubieten – ähnlich wie es bei Apple in iTunes, respektive dem App-Store geschieht. Ob das Ganze ein Erfolg wird, und wann es in der Schweiz erste Geräte und Firmen gibt, die diesen Webshop anbieten, hängt davon ab, inwieweit gesetzliche Richtlinien eine schnelle Umsetzung zulassen.
Intel führte zudem verschiedene Designs neuer MIDs (Mobile Internet Devices) vor, die auf Microsofts Windows-7-Betriebssystem und der von Intel angepassten Linux-Version (Moblin, V. 2.1) liefen. Bei einem ersten Live-Check vor Ort fiel PCtipp die Gerätedicke und Grösse auf, was nicht förderlich für ein handliches Mobilgerät sein dürfte.
Interessant ist dagegen die Strategie, die Intel mit der Atom-Architektur verfolgt: So habe man, liess Otellini verlauten, mittlerweile 460 erfolgreiche Atom-Designs, die in den verschiedensten Sparten zum Einsatz kommen: Vor allem bei Infotainment-Systemen in Autos, Industrie- und Militär-Applikationen sieht Intel viel Potenzial für die Minis.
Enttäuschende Larrabee-Demo
In der zweiten Keynote am heutigen Tage zeigte Sean Maloney, Senior Vice President und Gelsinger-Nachfolger, die erste lauffähige Spiele-Demo von Larrabee, Intels kommendem Grafikchip. Maloney sprach von «early silicon». Gezeigt wurde ein Demo des Shooters «Quake Wars: Enemy Territory». Im Desktop-PC lief der Chip in Kombination mit Intels 6-Kern-CPU «Gulftown» (Architekturfamilie Westmere), die im ersten Quartal 2010 gelauncht wird. Zwei Dinge sind uns während der Präsentation negativ aufgefallen:
Zum einen konnte Intel nicht den Nachweis erbringen, wie gut Larrabee Open-GL- respektive DirectX-Spiele emulieren kann. Und zweitens sahen wir bei der dargestellten 3D-Szene, die per Ray-Tracing auf den Bildschirm berechnet wurde, leichte, aber sichtbare Ruckler.
Intel sieht Larrabee dabei nicht nur als diskrete, eigenständige Grafikkarte, sondern auch als Co-Prozessor, der in die CPU als Unterstützung integriert wird. Nach uns vorliegenden Informationen sollen bereits wichtige Spieleentwickler mit entsprechenden Systemen versorgt worden sein.



Kommentare
Avatar
Google
23.09.2009
Hmm, wie sieht wohl die Zukunft aus? Wenn die jetzt noch den RAM und diverse Controller vom Mainboard in die CPU bauen, dann haben wir in ein paar Jahren eine reine CPU als Computer? Festplatten brauchen wir ja dank Web-Streaming auch nicht mehr.. Cool, dann können wir endlich Crysis auf der digitalen Armbanduhr spielen ^^

Avatar
Midori
23.09.2009
Ich denke diese "negativen" Sachen die beim Sandy Bridge augefallen sind, werden sicherlich in nächster Zeit stark verbessert. Würde ich auch sagen! Für eine totale Neuheite finde ich die Leistung ganz ordentlich. Ich frage mich nur, wie grossen Einfluss das Ganze auf die Gesamtperformance bei Games hat, ob da der Grafikchip in der CPU durch eine Grafikkarte "überstimmt" wird oder ob sie wirklich etwas nützt. Wenn das so weiter geht gibts bald nur noch Intel als Halbleiterproduzent und diverse Mainboardhersteller. Vielleicht noch Arbeitsspeichermanufakturer. Von AMD fange ich schon gar nicht an... wenn die nicht schnellsmöglich auf den Zug aufspringen oder eine andere Richtung einschlagen, ists aus, würde ich mal sagen. Doch zugegeben, AMD verhält sich sehr geschickt! Intel muss sich schon ziemlich anstrengen, nicht leistungstechnisch, sondern preislich! Wir Intel billiger, ist eben AMD noch billiger. Und irgendwei bringt es AMD fertig, mit kleinem Aufwand, wenigen Prozessoren viele Gebiete abzudecken. Intel hat alleine von den Atom-CPUs - wie viele? - 460 Typen. Oder habe ich da etwas falsch verstanden?

Avatar
hwRob
23.09.2009
so jungs, ma butter bei die fische... hab ich was verpasst? Ich denke diese "negativen" Sachen die beim Sandy Bridge augefallen sind, werden sicherlich in nächster Zeit stark verbessert. welche negativen sachen von Sandy Bridge? meint ihr nicht Larrabee? Larrabee sorgt effektiv für etliche Fragen und ist für etliche Falten im Gesicht verantwortlich. Bin gespannt ob sich intel mit diesem massively many core Projekt doch nicht übernimmt. Klar man hat Entwickler geholt, aber allesamt leute die über Jahre nicht mehr an einem Highendgrafikchip gearbeitet haben. Diese Leute haben sich ATI/nVidia schon lange gekrallt. Schon seit Monaten ist wirklich fraglich ob die erste Generation von Larrabee überhaupt das Segment Highend erfüllen kann. Gerüchte besagen, dass aktuell die Leistung einer nVidia GTX285 erreicht wird. Zum Zeitpunkt des Lunches nur noch Mittelklasse, wenn überhaupt! Zweifel gibts natürlich auch, ob es der richtige Ansatz ist 3D wieder mit Software-Rendering darzustellen. ich sags mal so, Larrabee wird floppen. Sollte Raytracing dann mal wiirklich ein Themawerden für Games, Können die Karten neu geschmischt werden.

Avatar
killer_91
24.09.2009
Sorry ja natürlich habe ich Larrabee gemeint...:o Ich denke eigentlich müsste dieser CPU/GPU gar nicht unbedingt ins High End Segment, denn man muss sich das mal vorstellen, sagen wir ein i7 920 oder änliches hat noch eine GTX 295 integriert. Ich mache mir einfach ein bisschen Sorgen um die Wärme. Meine GTX 260 wird beim Gamen von ETW auf Ultra Stufe schon 65° warm, und vom CPU spreche ich noch gar nicht. Wenn das funktionieren sollte müssen die Mainboard komplett anders aufgebaut werden damit man bessere und grössere Kühllösungen verbauen kann. Ich denke es funktioniert, denn es würde geil aussehen bis jetzt, dann wird Larrabee den ganzen Markt umstellen und sämtliche bis jetzt gesehenen Techniken über den Haufen werfen. Totale Neuheit!!! :confused:

Avatar
hwRob
24.09.2009
dazu braucht intel aber erstens einen Wundertreiber der aus der x86 Architektur (ein leichters modifizierter PentiumMMX ;) ) das absolute max. rauskitzelt. Bei heutigen bis mittelfristigen Games wird das meiste via Hardwarebeschleunigung gerendert. ATI/nVidia haben hochspezialisierte Grafikprozessoren, welche diese vornehmen. Larrabee muss das ganze emulieren/via software rendering durchführen - da brauchts gewaltige rechenpower. Intel gibt ja ~2 Teraflop an... ATI's neue 5870 hat 2,7Teraflops... :rolleyes: Intel bekommt nur Aktzeptanz wenn sie beweisen können, wie gut DirectX und OpenGL/CL basierende Games (und das sind ja nicht wenige :D ) auf Larrabee laufen. Warum viele Skepsis zeigen ist under anderem auch, dass Intel sonst die "Genialität" und die "Power" nicht versteckt sondern offen kommuniziert. Bei Larrabee labert man seit Monaten/Jahren um den heissen brei herum und zeigt immer wieder die selben langweiligen Raytracing Effekte. Daniel Pohl (godfather of RT bei IntelLabs) pusht alle Jahre mit einem neuen Artikel bei ComputerBase. Quake III & ET hängen mir langsam ausm Hals raus. Ich will sehen was larrabee bei aktuellen Spielen bringt und nicht was für tolle Effekte möglich sind. Wohlgemerkt mit einer Technologie die noch voll in der Entwicklung steht und Hardwareressourcen benötigt die so noch nicht vorhanden sind. Sollte ich mich, wie viele andere, täuschen und Intel bringt das Wunderding, dann gehör ich mit Garantie mit zu den Ersten die eine solche Karte holen - sofern auch Energietechsnisch alles auf grün steht!

Avatar
killer_91
25.09.2009
Sollte ich mich, wie viele andere, täuschen und Intel bringt das Wunderding, dann gehör ich mit Garantie mit zu den Ersten die eine solche Karte holen - sofern auch Energietechsnisch alles auf grün steht! hehe naja es sind dann eben keine Karten mehr ;)

Avatar
hwRob
25.09.2009
:rolleyes: selbstverständlich wird Larrabee eine Grafik"Karte" - zwar auf GPGPU basis. Am Prinzip mit der Steckkarte ändert sich vorerst nichts. - Wird sich im Highendsektor voererst (kurz- und mittelfristig) auch nicht verändern ;) Glaube kaum, dass Intel Mainboards bringt mit separaten GPGPU Socket für Larrabee + natürlich Sep. VRAM Sockets für GDDR5... wäre sicherlich ein interessantes setup.. :rolleyes: Sobald Larrabee ins CPU DIE schlüpft ists was anderes. Aber das dauert auch wiederum noch was. und bis hier von Highend-Grafik gesprochen werden kann dauerts noch etliche Jahre. Eine CPU mit einer volständigen Larrabee Einheit ist heute schon nur durch die Fertigungsgrösse (45nm/32nm) schlicht nicht realiserbar, ohne einen XXL-XXL Sockel zu entwerfen der die grösse hat, den benötigten Strom liefern kann ;)

Avatar
killer_91
28.09.2009
jop aprpos Mainboard. Intel hat heute ein Mainboard vorgestellt für diesen CPU!