socket píše:no-x: neviem teraz najst to, kde si tvrdil ze G80 na 90nm je nezmysel, ze tak velky cip proste musi mat takmer nulovu vytaznost. A to G200 este zvysila plochu (65nm).
GT200 mohla snadno zvýšit plochu, byla vyráběná na jiném výrobním procesu. G80 byla vyráběná na 90nm a využila maximum, které 90nm proces dovoloval. Tohle jsem tvrdil jako reakci na zprávy o obrovském výkonu před tím, než se objevily informace o tom, že polovina jádra poběží na >2x vyšší frekvenci. S tím se počítat nedalo a bez toho by buď čip s takovým výkonem na 90nm procesu nemohl být vyráběný (protože by byl přes limit), nebo by zkrátka takový výkon neměl.
Mimochodem, čím to, že tolik lidí blábolí nesmysly od rána do večera, ale když se v jedné věci seknu já, je mi to připomínáno ještě po třech letech?
DOC_ZENITH/XAN píše:Myslím si že rozdíl mezi G71 a G80 byl více jak 80%. Teda obě karty jsem měl a musim to potvrdit. Jo, možná v 1024x768 no AA no AF a maximální optimalizace takže se na to nedá koukat, pak by to bylo 80%. Ale zkuste si s G71 spustit moderní hru v 1920x1200 s rozumnym nastavenim, bude to tak 4x horší jak G80.
Všechny ty rozdíly mezi kartou "A" a kartou "B" jsou vždy převzaté z computerbase z recenze karty "B". Jsou to vždy výsledky s AA(4x)/AF v rozlišení, které se v dané době považovalo za typické pro jednočipový high-end (nejvyšší nebod ruhé nejvyšší v testu).
Chápu, že s odstupem X let mohou být výsledky jiné, ale pokud mluvíme o tom, jaký je rozdíl ve výkonu u nových čipů (tzn. těch, které jsou na trhu dva měsíce), nemůžeme srovnávat jablka a hrušky.
DOC_ZENITH/XAN píše:Jinak ještě k HD2900XT vs 4670. dle toho co jsem zkoušel je 4670 znatelně slabší, neberu teď staré hry kde je potřeba hodně fillrate a se zapnutym FSAA protože to je přesně to co R600 zabijí, ale jednoduše zkusil jsem si Crysis no AA na obouch krtách a bylo celkem jasno.
Je to srovnání s AA/AF ve stejné situaci, jako jsem popsal v předchozím odstavci. On nikdo pomalé AA R600 neodpustil, takže by asi bylo trochu zavádějící, kdybych pro jednu kartu dělal výjimku.
DOC_ZENITH/XAN píše:Přinesla jako první hodně nízkou spotřebu v 2D, excelentní power management...
No, to byl z poloviny marketing. Spotřeba ve 2D sice klesla, ale v praxi karta ve 2D měla víc než o polovinu vyšší spotřebu, než kolik nVidia uváděla ve slajdech.
G80 byla "revoluce" ze dvou důvodů - G71 byl malý čip, zastarý a krom nízké spotřeby to byla sra*ka. A ATi měla své problémy s R600, které ještě zkomplikovalo sloučení s AMD, takže neměla konkurenci - když vyšla, byla zabugovaná až běda. Kdyby nebylo všemožných komplikací a konkurence přišla včas a v rozumné podobě, nebyla by G80 brána jako žádná revoluce.
Od té doby je situace vyostřená, takže nVidia raději vydává obrovské čipy jenom aby se nestalo, že by ATi mohla mít něco o půl procenta rychlejšího... a přechodem z velkého (výkonného) čipu na cokoli nového revoluci neuděláš. Představ si situaci, že by nVidia nevydala GT200, ale po G80 už zůstala u G92. To by byla podobná situace jako s G70->G71. Doteď bychom na trhu měli RV770 a G92b a když by ATi přišla s RV870, vypadalo by to jako stejná "revoluce", jako s G80.
Tohle není o reálném výkonu, nebo konkrétních produtkech, ale o kombinaci toho, co je na trhu a dalších událostí (něco se někomu nepovede, něco se někomu povede, časově se to sejde a jeden produkt to v očích zákazníka katapultuje výš, než kam byl mířen).