Sonntag, 25. Oktober 2009

AMD RV870 with P18000 in 3DMark Vantage?

During the last days many rumors came up about the coming AMD chip, probably because the launch is almost at hand.
Only five days ago you could learn in an Asian bulletin board, that the RV870 seems to see the light of day with a 384 Bit memory interface. Meanwhile this thesis could be disproved, as the first example had a 1024 MiB texture memory installed - but perhaps this was only a RV840 exemplar with 128 Bit memory interface.

The colleagues from Tweakers brought new rumors up, publishing a 3DMark Vantage score in the performance preset of the mainstream solution RV840 (Juniper) already a few days ago. The chip would have reached a P9500 points, while they did not give any further details about the test system. But this causes a ranking between HD 4850 and HD 4870.

  • Cypress/RV870: P16000-P18000
  • Juniper/RV840: P95xx
  • Redwood/RV830: P46xx


Now the same source has also a result of the eagerly expected performance chip RV870 (Cypress) on hand. But here they do not commit themselves to an exact amount of points, but give a span between P16000 and P18000, which is almost twice the RV840 and already atop of the HD 4870 X2 regions.
The long lasting thesis, that the RV870 is just a doubled RV840, is not weakened by the expected 3DMark Vantage score.

Although the 3DMark Vantage does not have to be the reference and the results cannot be determined to be 100% certain, we can surely presume that AMD aimed a doubled performance with the new generation - on September 10 the secret of the new AMD generation will finally be revealed. But maybe only for the press.

Samstag, 29. August 2009

Erste umfangreiche Infos zu ATIs RV870-Chip

Seitens des ATI-Forums gibt es neue und diesesmal schon recht umfangreiche Informationen zum ATI RV870-Grafikchip, welcher der erste Direct3D11-Grafikchip seitens ATI werden soll und für den Sommer 2009 geplant ist. Ähnliche wie auch abweichende Informationen zum RV870 gab es zwar schon hier und da, allerdings bislang noch nichts derart detailliertes (im Rahmen dessen, was man Monate vor dem Launch "detailliert" nennen kann). Folgendes hat das ATI-Forum in zusammengefasster Form zu berichten:

* ATI RV870 Verkaufsname Radeon HD 5800
* 40nm Fertigung
* Die-Größe 205 mm²
* mindestens 1000 Shader-Einheiten
* 1,5 Teraflops Rechenleistung
* 150 bis 160 GB/sec Speicherbandbreite
* wahrscheinlich wiederum Einsatz von GDDR5-Speicher
* gerüchtehalber 512 Bit DDR Speicherinterface
* 1 GB Speicher als Standard
* Stromverbrauch bei der Hälfte des Vorgängerchips
* Chips können im Multi-Chip-Modul-Verfahren zusammen auf ein Trägermaterial verbaut werden
* Direct3D11-Fähigkeit
* Tape-Out Ende 2008, angeblich schon Ende des ersten Quartals 2009 marktbereit

Zuerst ein paar kleine Erklärungen zur besseren Einordnung: Die 1,5 Teraflops Rechenleistung (Radeon HD 4870: 1,2 Teraflops) würde man bei 1000 Shader-Einheiten (Radeon HD 4870: 800) mit einem Chiptakt von 750 MHz erreichen, genauso viel wie bei der Radeon HD 4870. Die Speicherbandbreite von 150 bis 160 GB/sec (Radeon HD 4870: 115 GB/sec) kann man dagegen mit einem 256 Bit DDR Speicherinterface und auf 2400 MHz taktendem GDDR5-Speicher oder aber mit einem 512 Bit DDR Speicherinterface und auf 1200 GDDR3- oder GDDR5-Speicher erreichen. Da in letztgenanntem Fall der Speichertakt aber für GDDR3 etwas zu hoch und für GDDR5 deutlich zu niedrig liegen würde, tippen wir eher auf erstgenannte Variante.

Immer vorausgesetzt, diese Angaben stimmen, läßt sich damit schon ein ziemlich genaues Bild des RV870-Chips aka der Radeon HD 5800 Grafikkarten-Serie zeichnen. Natürlich kann derzeit niemand für diese Angaben die Hand ins Feuer legen, aber zum einen sind sie nicht unstimmig, zum anderen nicht maßlos übertrieben (wie bei vielen Spekulationen) und letztlich sind solche exakten Angaben wie die Die-Größe selten und deuten daher eher dahin, daß das ganze einen realen Hintergrund hat.

Insgesamt überrascht uns ATI etwas mit diesem RV870-Design, denn jenes deutet nicht auf einen großen Leistungssprung hin. Bei der Rechenleistung würde man mit diesem Design nur 25 Prozent über dem Wert einer Radeon HD 4870 liegen, bei der Speicherbandbreite auch nur zwischen 30 und 40 Prozent mehr bieten. Eine Radeon HD 4870 X2 wäre somit unmöglich zu schlagen, hierfür müsste man schon mindestens 80 Prozent mehr Rechenleistung und Speicherbandbreite ansetzen.

Andererseits passen die übrigen Angaben haargenau auf diese nur geringe Mehrleistung: Die Die-Größe von 205 mm² deutet – wenn der RV770-Chip in 55nm seine 256 mm² groß ist – nicht auf deutlich mehr Ausführungseinheiten hin, sondern eher auf eine sehr knappe Kalkulation bei den Hardware-Einheiten. Und zum anderen ist die Halbierung des Stromverbrauchs zum Vorgänger-Chip RV770 auch nur dann zu erreichen, wenn man das kleinere Fertigungsverfahren vorwiegend zum Stromsparen nutzt – und nicht für mehr Ausführungseinheiten oder deutlich mehr Takt (was beides möglich wäre).

Richtig Sinn macht das ganze zudem, wenn man sich die Sache mit dem Multi-Chip-Modul-Verfahren ansieht, mittels welchem Grafikchips gemeinsam auf ein Trägermaterial gepresst werden: Denn dieses bedingt zwingend Grafikchips mit einer vertretbaren Verlustleistung. Bei einer Radeon HD 4870 X2 ist dies noch nicht relevant, weil beide Grafikchips räumlich etwas voneinander entfernt nur auf demselben Grafikboard liegen und vor allem jeweils über eine eigene Kühlkonstruktion verfügen. Legt man aber zwei Grafikchips aber auf dasselbe Trägermaterial und unter denselben Heatspreader, so muß plötzlich ein Kühler die Leistung beider Grafikchips auf einmal bewältigen können.

Und hierbei sind von der Kühltechnik her natürlich Limits gesetzt: Mehr als 200 Watt dürften derzeit kaum möglich sein – was sich bei zwei Grafikchips demzufolge auf diese verteilen muß. Insofern ist durchaus zu erwarten, daß ein RV870-Chip bezüglich der Stromaufnahme klar unterhalb dessen liegt, was derzeit ein RV770-Chip zieht – bzw. so, daß selbst zwei RV870-Grafikchips nicht deutlich mehr als derzeit ein RV770-Chip verbraucht. Somit passen die vorstehenden Angaben wirklich sehr gut zueinander – und der RV870 wird damit aber auch zu einem Grafikchip, wo ATI noch viel verstärkter auf MultiChip-Varianten zu gehen scheint als bisher.

Dies dürfte dann sicherlich auch einhergehen mit einer weiteren Verbesserung der MultiChip-Technologien bzw. der weiteren Beseitigung der bekannten Schwächen dieser. Genau an diesen – bislang unbekannten Punkten – wird sich dann aber auch entscheiden, ob ATI mit diesem neuen Weg Erfolg haben wird. Denn so interessant das Multi-Chip-Modul-Verfahren aus Produktionssicht ist, für den Käufer wird letztlich nur zählen, wieviel Performance die DualChip-Grafikkarte aus ihren zwei Grafikchips zieht und welche Probleme die angewandte MultiChip-Technologie mit sich bringt. Insofern besteht derzeit noch keinerlei Anlaß, daß Multi-Chip-Modul-Verfahren per se hochzujubeln – ATI muß erst noch beweisen, daß man damit etwas besseres auf die Beine stellt als einfach das jetzt schon mögliche Verbinden zweier Grafikkarten per CrossFire.

Herausfinden werden wir dies dann wohl im zweiten Quartal 2009, wobei die RV870-Launchdatierung derzeit wild zwischen Ende erstes Quartal 2009 bis Sommer 2009 schwanken. Insbesondere der frühere Termin würde etwas überraschen – und gleichzeitig die Möglichkeit offenlassen, daß ATI über das Jahr 2009 dann noch mit einem weiteren 40nm-Chip mit deutlich mehr Hardware-Einheiten nachlegt. Denkt man diese Variante weiter, wäre es sogar möglich, daß der RV870 noch kein Direct3D11 enthält, sondern daß dieses erst mit einem später im Jahr 2009 erscheinenden Grafikchip eingeführt wird – dann wäre der RV870 faktisch nur ein RV770-Refresh. Derzeit sind in dieser Richtung jedoch noch viele Möglichkeiten offen, hier bleibt derzeit nichts anderes als abzuwarten auf genauere Informationen.

Donnerstag, 16. Juli 2009

Has Linux lost the ISV battle?

Has Linux lost the ISV battle?

As long as anyone can remember, one of the big problems with Linux was the lack of commercial applications. Independent software vendors (ISVs) are generally faithful to Windows or OS X, so very little to commercial software available for Linux. The free software ideology aside, there are many commercial applications for Linux that might benefit from being able to execute.

As a cross-platform software developer, there are many when difficult issues are unique to the development of Linux. Firstly, there is the issue of binary compatibility.

In order to build a Linux x86 binary that runs on as many Linux desktop distributions as possible, as widely documented procedure is simple: create your question in the oldest distribution can be found. Most libraries of Linux are backward compatible, which means an application compilada against version works with the latest versions of the library. In theory, this seems a reasonable way to make Linux a universal binary. In practice, things are very different - Are you a link or dynamic link libraries and do? How exactly a do? E 'roll of this practical steps in its construction? Moreover, if the official documentation for this procedure? What are the best practices to produce a universal binary Linux x86?

Another problem is the distribution of software. As a developer of business software, how to distribute its software to as many customers as possible uns? You must create and RPMDEB packages, and probably some generic graphical installer package as well. In Windows, a single installer. EXE is installed in 2000, XP, Vista, etc. In the case of Linux, if you need to create tons of packages, or you must limit your customer base throughor the creation of packages for the most popular Linux distributions. Now that you have multiplied the amount of effort required to develop more than Linux.

In addition, fights uphill battle against the software so abrirurce. If you have a controersione Adobe Photoshop for Linux (and allowed to buy your site DEBS), most people still just install the GIMP for trSynaptic or birds of Ubuntu Add / Remove Programsdialog. Worse yet (for Adobe), GIMP is installed on every system Ubuntu by default. The best one can hope for is to offer Adobe DEBS through its website, and I hope that people have a priori knowledge of their products, and go to their website to buy it. There is no "APP Store" for Ubuntu, and perhaps particularly not esseredubbio because distributions are not making it easier to sell its software for Linux.

Many of these are hindering cUESTIONSand independent suppliers of software applications development for Linux could be alleviated by far better for the organization of Linux Foundation. When initially spoken of Linux Standard Base (LSB), I was excited at the prospect of finally Universal Binary for Linux x86, and perhaps even open the door for more commercial Linux aplicableciones, I thought. However, until now, I can count numberLSB the number of applications certified by one side. The mass adoptiontion Linux ISV has not happened, and I can not say that to blame them. If I were a developer of Windows, I do not know where to start. The Linux Foundation Start Guide includes a section on porting its application to the LSB, but applications for Linux, not for applications that already run on another platform.

If I were a developer to write a new buscandogimplementation on Linux, not misapete where to start. I use a GTK or QT? wxWidgets? What are the libraries of standard Linux? Where is all documented? There is no central repository documentation that guides developers of Linux and provides answers to this question. Windows developers have MSDN, developers of OS X Apple Developer Connection, developers of Linux have nothing but a bunch of websitesdispersed, any attempt to convince that the library is being a first for its use. This is not a productionttivo, and an organization like the Linux Foundation should make a serious effort to give developers the information they need to develop their applications quickly. You can not expect developers of Windows to know what libraries to use in search of answers on Google - has to be some centralized websitethat provides developers with the answers they need. To me, this shows a lack of leadership in the community Linux desktop.

In the kernel, is very clear who is responsible. There is a clear command structure, and this allows the kernel developers to work as an effective organization. In the user (for example, libraries and applications software) does not see the same command structure. We Freedesktop.org the creation of "rules" andbackup software for the Linux platform, but the software is hosted on it, says:

None of this is "sustained" from herelsiasi person or implied in the software, remember that freedesktop.org is a forum for collaboration, so that no one is encouraged to host things here, if you are concerned.



What seems to have desktop Linux is a plethora of organizations acting independently (the establishment of libraries, etc.), without a clear cross-organizational leadership. Freedesktop.org managed to reach many of these organizations to collaborate and undoubtably has led to uNo improvement in the desktop Linux (see HAL and dbus), but do not seem to be preaching a clear vision of these organizations, nor provide any guidance for developing nuovirs who want to take advantage of new technologies has been promoted.

Many of my views presented here were marked by my experience writingproperty embedded software on Linux. I worked with engineers who had never written software for Linux, andor a difficult time responding to questions that have since Linux does not have something like MSDN. It 'very easy to make bad decisions about what libraries for use on Linux, because of the lack of documented centralizzatasu.

The nightmare of binary compatibility, lack of support from the Linux distributions, and the lack of centralized records and guidance for developers of Linux software make it difficult and costly platform for the sviluppo. This is a big slap on the shelf next to small applications, but when faced with serious problems that independent software vendors face when the development of desktop applications, Linux as a platform simply not worth the eff

Core i7 boosts Intel 3D gaming performance by 40%

One of Intel's new Core i7-965 processors can run Crysis at an average of 7.4 FPS at 800x600 with the detail level turned down. In the same test, Microsoft says Intel's DX10-capable integrated graphics hardware managed just 5.2 FPS.

From 5.2 FPS to 7.4 FPS, 40% jump for Intel.

Die Geforce 8400 Gs schafft 33,9 FPS und Kostet nur 30 Dollar...

Gtx 280 Benchmarks and many more


Endlich gibt es aussagekräftige Benchmarks des neuen Flagschiffs namens Geforce Gtx 280.

Im Crysis DX 10 Benchmark zeigt sie ihre stärke im vergleich zur dual Chip lösung 9800Gx², aber seht selbst!

Samstag, 7. Februar 2009

Club 3D bezieht Stellung zum Angebot einer Radeon HD 5870 X2

Die aktuelle Informationslage zu den kommenden Grafikkarten von AMD und NVIDIA basiert im Moment noch vorwiegend auf Spekulationen und ist dementsprechend schwer zu beurteilen. So sah das Angebot einer Radeon HD 5870 X2 in einem Online-Shop auf den ersten Blick noch glaubwürdig aus, doch auf den zweiten schon fragwürdig. Heute erreichte uns nun einen Stellungnahme von Club 3D zu diesem Thema.

Der Hersteller bekräftigte unsere Zweifel an der Echtheit der angebotenen Grafikkarte und teilte uns mit, dass es sich um ein Fake handeln würde. Der niederländische Online-Shop Saalland hat außerdem die Grafikkarte mittlerweile auch aus seinem Angebot entfernt.

Spekulationen und Fakten zum AMD RV870 (HD 5800) Grafikchip

Schon seit Monaten ranken sich im Web Spekulationen zum geplanten neuen RV870-Chip von AMD, welcher vermutlich unter der Bezeichnung Radeon HD 5800 2009 an den Start gehen wird. Auf Basis all dieser Spekulationen, auch genährt mit wohl dem einen oder anderen Fakt des ATI-Forums, hat sich unser Partner 3DCenter nun die Mühe gemacht und all die Informationen zusammen getragen und analysiert.

In ihrem aktuellen Artikel Erste umfangreiche Infos zu ATIs RV870-Chip legen die Kollegen dar, dass der RV870 durchaus ganz eigene Wege gehen könnte. Neben einer wohl als gesicherten DirectX 11-Unterstützung, könnte der RV870 unter Umständen gar zwei Chips auf einem Trägermaterial vereinen.

Ende 2008 soll - das war bislang schon mehrfach so angedeutet, das Tapeout des Chips erfolgen und angeblich soll die Welt diesen dann unter dem Namen HD 5800 schon Ende des ersten Quartals 2009 erblicken dürfen. Ob sich Spekulationen über ein 512 Bit breites Speicherinterface, der Einsatz von GDDR5-Speicher, sowie weitere Spekulationen um Bandbreiten, Rechenleistung oder Verlustleistung zu dem in 40nm gefertigten RV870 bewahrheiten könnten, versucht das 3DCenter in seinem Artikel zu analysieren.
[pg]

Dienstag, 3. Februar 2009

Wie scätze ich die leistung einer Grafikkarte korrekt ein?

Die einzige Möglichkeit, um festzustellen, wie schnell eine Karte wirklich ist, ist ein Benchmark, wie zum Beispiel 3D-Mark ihn bietet. Da Sie aber nicht bei jedem Kauf zuvor im Laden einen Testlauf starten können müssen Sie versuchen, die Spezifikationen einer bestimmten Karte zu verstehen und interpretieren. Der erste Anhaltspunkt für die Geschwindigkeit ist der Name der Grafikkarte. Die beiden großen Hersteller Nvidia und AMD (früher ATI) produzieren innerhalb einer Serie verschiedene Modelle von Grafikprozessoren in verschiedenen Leistungsklassen. Aktuell ist die Geforce 8000er Serie bei Nvidia und die Radeon x1000er Serie bei ATI. In diesen Serien gibt es dann die unterschiedlichen Modelle, bei Nvidia zum Beispiel die Geforce 8600 und die Geforce 8800, bei ATI die Radeon x1600 und die x1950. Grundsätzlich gilt, je höher die Nummer innerhalb einer Serie, umso höher die Leistung. Allerdings sind auch Kürzel wie GT, GTX, XL, XT zu beachten, da einige von ihnen eine höhere Leistung gegenüber der Version ohne Anhängsel hindeuten, teilweise ist es aber auch genau umgekehrt, die Varianten mit Kürzel sind langsamer und deswegen meist auch billiger als die ohne. Die Mittelklassemodelle der aktuellen Generation sind meist auch nicht schneller als die Spitzenmodelle der Vorgängerserie. Hier ist also Vorsicht geboten.

Jetzt gibt es aber die Modelle einer Serie von vielen unterschiedlichen Herstellern und Leistungsunterschiede fallen, obwohl alle den gleichen Grund-Chip verwenden, nicht immer gering aus. Nur woher weiß man, welcher Hersteller das Beste bietet? Hier hilft ein Blick auf die technischen Spezifikationen, insbesondere die Taktraten von Chip/Speicher sowie die Größe des Grafikspeichers und wie dieser angebunden ist. Sehr einfach ist der Vergleich der Taktraten, denn hier gilt, je höher Chip- und Speichertakt, umso größer ist auch die Leistung die diese vollbringen können. Und auch bei der Größe des Speichers ist nicht so viel zu beachten, außer dass man nicht dem Trugschluss unterliegt, je größer der Speicher, umso höher müsse auch die Leistung sein. Denn das ist falsch! Der größte Speicher und die höchsten Taktraten nützen nichts, wenn die Verbindung dieser Teile untereinander mangelhaft ist. Deshalb ist die Breite der Speicheranbindung zu beachten. Aktuelle Spitzengrafikkarten wie die Geforce 8800GTX haben eine Speicheranbindung von 384-bit.

Es sind also beim Kauf einer Grafikkarte viele Dinge zu beachten, um die Richtige Wahl zu treffen. Aber lassen Sie sich davon nicht anschrecken, es ist weniger kompliziert als es klingt;)

Geforce GTX 260 in 55nm im Handel

Fast wäre mir diese kleine Meldung entgangen, die wir vor ein paar Wochen noch als große Sensation gefeiert hätten, aber ComputerBase war so freundlich, auch auf kleine Randbemerkungen zu achten. Es ist wohl tatsächlich so, dass die neue Geforce GTX 260 mit 55nm GPU klammheimlich und ohne große Ankündigung zumindest in den asiatischen Handel kam.

Konkret geht es dabei zunächst um ein Modell von inno3D, das bei Chip- und Speichertakt jeweils 50 MHz mehr vorzuweisen hat als ein "normales" oder "altes" Modell. Dafür geht der Preis kräftig in die Höhe, die verlangten 35.000 Yen entsprechen rund 280 Euro.

Inzwischen hat auch EVGA gleich drei solcher neuen Geforce GTX 260 für die nächste Woche angekündigt, wobei ein Modell genau den Refernztakt vorzuweisen hat, während die beiden anderen mit 626 und 666 MHz für den Chip deutlich beschleunigt wurden.

Leider Gottes lassen es sich die Hersteller anscheinend nicht nehmen, mit dem Argument der kleineren Fertigung und der zusätzlichen Megahertz auch wieder an der Preisschraub zu drehen, bisher veranschlagt EVGA 299 Euro für die übertaktete Variante.

Eine Vorreiterstellung in der Position als Ladenhüter scheint der neuen GTX 260 damit vorerst gesichert, eine GTX 280 wäre für nur 30 Euro mehr zu haben.

Nvidias 55nm Planung

Richtige Mythen ranken sich in den letzen Wochen rund um die Zukunft von Nvidias aktuellen Spitzengrafikkarten. Die GTX 280 ist zwar nach wie vor die schnellste Single-GPU-Grafikkarte der Welt, trotzdem ist sie technologisch nicht mehr up to date, was das Green Team laut Fudzilla in den nächsten Wochen nun wirklich ändern könnte.

Zum einen geht es um eine Verkleinerung des GT200 Grafikchips, der auf den Modell GTX 260 und 280 zum Einsatz kommt. Angeblich rechnet Nvidia nun damit, dass bereits in diesem Quartal rund 70% aller GT200 in neuer 55nm-Fertigung ausgeliefert werden. Dazu sollen ab Dezember größere Mengen die Verbraucher erreichen, ohne große vorherige Ankündigung.

Ebenfalls Gegenstand von Spekulationen ist eine Doppel-GPU-Grafikkarte. Diese soll laut Fudzilla im Januar auf den Markt kommen, und da sie auf zwei 55nm GPUs, die normalerweise auf GTX 260-Karten verwendet werden, basiert, soll sie vermutlich auch den Namen Geforce GTX 260 GX2 tragen.

Infos zur Gtx 295!

Jetzt wurde es langsam aber sicher einmal Zeit, dass diesen Gerüchten und Vermutungen rund um die nächste doppel GPU-Grafikkarte von Nvidia ein Ende gesetzt wurde, und auch wenn wir dank einer Verschwiegenheitspflicht bis zum 8. Januar, der sich alle glücklichen Empfänger eines Testsamples verschreiben mussten, noch nicht zur vollkommen Wahrheit gelangen, so haben wir jetzt zumindest die technischen Eckdaten.

Die beiden Herzstücke der Grafikkarte sind zwei GT200b-GPUs, also die von der GTX280 bekannten Grafikprozessoren, nur in etwas zeitgemäßerer 55nm-Fertigung. Diese Kraftpakete takten standardmäßig mit 576 MHz und werden von 480 Shader-Einheiten unterstützt. Hinzu kommen satte 1,7 GB Speicher, der eine unglaubliche Bandbreite von 224 Gbyte pro Sekunde zur Verfügung hat.

Bei all diesen Superlative, braucht man leider auch auf den letzten nicht allzu lange warten: Die Leistungsaufnahme ist mit über 300 Watt jenseits von Gut und Böse, für die Wärmeabfuhr empfiehlt es sich wahrscheinlich, über eine Symbiose von PC und Gefrierschrank nachzudenken.

Eine echte Beurteilung der Leistung ist aufgrund dieser Verschwiegenheitsklausel noch nicht möglich, da diese es verbietet, andere Benchmarks als die von Nvidia explizit genannten durchzuführen. Allein von den technischen Voraussetzungen her schließe ich mich allerdings den Kollegen von GameStar.de an, die davon ausgehen, dass die derzeit schnellste Grafikkarte in Form der HD 4870 X2 von AMD doch mit einigem Abstand ihre Leistungskrone wieder abgeben wird.