nVidia G(T)300

Obecně o problematice zobrazování 3D ;-)

Moderátoři: ps47, swarm

Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

XAN píše:A příští generaci mam ten pocit, že ATI vyhraje. Rv770 neměla na to aby porazila GT200, ale donutila NV k nízkejm cenám a zruinovala jí tak zisky. Ale pokud se potvrdí její předpojklady aka až 2000 sp, nebo 1600 s více rops, atd (což bych viděl raději) . A když si vezmu GT300 aka vlastně zas jen 2x taková GT200 čili 4x G80, jen s tim že je tam podpora GDDR5 ale pravděpodobně crossbar takže bůhví jak to bude efektivní, SP budou odhadem stejný, ta změna jejich typu jen pomůže k lepší frekvenci ale to nebude nic zásadního a přiklánim se k názoru že DX10.1 a DX11 fukce se tam budou spíš emulovat přes SP než že by tam ňák byly, tak ehm... R800 generaci bych nepodceňoval. Už teď jsem si jistej, že sen NV aka mít jedno GPU ryhcly jak ATI dvě je putna. Řekl bych že krom vysokýho FSAA kde by to GT300 mohla nahnat propustnosti aka její jediná slušná výhoda, bude mít dost co dělat.
RV770 nikdy neměla GT200 porazit - ona jí ani neměla konkurovat. Nevím o tom, že by ATi plánovala měnit strategii a vyrábět jednočipovou kartu pro nejvyšší cenový cegment. Vše totiž zatím nasvědčuje o opaku.

//odděleno ze starého hardwaru
Naposledy upravil(a) no-X dne ned srp 09, 2009 9:46 am, celkem upraveno 2 x.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

Ale nakonec se tak stalo. A dle mého názoru se tak stane zas, což je jen dobře, pokud bude mít ATI top kartu na bázi crossfire aka takováho jak jej známe teď, tak se nedá říct že maj nejelpší kartu ani kdyby čiselně všechny benchmarky vyhrála. Ale co se zatim šeptá o GT300 tak to na žádnou bombu nevypadá. Tipoval bych, že ani nezdvojnásobí výkon oproti GT200.
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

To záleží na vícero faktorech.

Po G80 měla přijít G100, ale přišla GT200. Existuje teorie - a vlastně to není jen teorie, odpovídá to i některým reálným faktům - že G100 byla buďto zrušená, nebo posloužila za základ nějakého budoucího čipu. Totiž, GT200 je v podstatě "přifouknutá" G92 s přidanými jednotkami na dual-precision GP-GPU výpočty.

GT200 přišla o půl roku později. Spekulovalo se, že prostě byly nějaké problémy, protože je to velký čip a zpoždění půl roku není nic překvapivého - jenže GT200 byla postavená na vyzkoušené architektuře a vyzkoušeném procesu.

Další věc je, že v době G80 nVidia slibovala, že koncem roku 2007 přijde karta, která bude podporovat určité GP-GPU features (mj i dual-precision). Z toho G92 nesplňovala nic, takže to podpořilo teorii, že GT200 je zpožděná. Jenže když GT200 přišla, podporovala z toho výčtu pouze dual-precision, ale nic dalšího. Takže muselo jít ještě o jiný čip - který odložili, nebo zrušili.

Jediný důvod, který mě napadá, je osud R400 - moc technologie, málo výkonu. Nebo velký skluz v přípravách. Každopádně si myslím, že nVidia z nějakého důvodu měnila plány. Jestli G300 vzejde z GT200, nebo něčeho jiného, netuším, ale rozhodně by nVidii pomohlo, kdyby se nedržela toho nepříliš optimálního systému s kvantem texturovacích jednotek, které jsou nevyužité a jen zvětšují čip.

Můžu odhadovat jedině za předpokladu, že by vyšli z GT200. Ta je tvořena:

53% výpočetní clustery (TMUs+SPs) - tzn. 5,3% na každý z deseti clusterů
10% ROPs
3,25% dispatch processor
15% čipu je paměťový řadič
1,5% čipu je front-end (setup atp.)
zbylých cca 17% čipu je interface, hlavně paměťový

Pokud má mít G300 rozměry zhruba jako G80 a GT200b, pak si může nVidia dovolit (při snížení plochy 40nm procesem) zvětšit uvedená procenta cca 2-2,2x. Vezmeme to 2x, výrobní proces nezmenšuje čip zcela lineárně. Můžeme se tedy dostat na 200% výše uvedeného:

106% - zdvojnásobení clusterů na 20 (480 SPs)
20% - zdvojnásobení ROPs - využije-li nVidia GDDR5, bude dvojnásobku přenosové kapacity chtít využít
8% dispatch procesor + front-end (podpora DX11 ho jistě "přifoukne")
40% - paměťová řadič a interface - podpora GDDR5 obojí zvětší

Jsme na 174%. Otázka je, jak architekturu nVidie zvětší podpora DX11, ale minimálně těch 25% to bude.

V kombinaci s vyššími frekvencemi by to mohlo dát dvojnásobek výkonu GT200. Čip by ale mohl být i větší - jako GT200 (ne-b), tzn. necelých 600mm². Pak bychom mohli jít na 264% teoreticky, ale jak jsem zmínil, shrink není většinou lineární, takže řekněme 250%. Jelikož nemá smysl měnit sběrnici a ROPs, narostl by výlučně počet clusterů - máme na to těch 50%, takže:

148% - 28 clusterů (672 SPs) při 25% pro DX11 kompatibilitu. U tak velkého čipu už by ale pro její dosažení zřejmě bylo třeba více (protože nepočítáme s procenty z čipu G300, ale mluvíme o procentech z GT200), takže 28 clusterů je realizovatelných pouze za předpokladu, že nebudou stejné, jako u GT200, ale texturovací jednotky v nich procentuelně bude zabírat méně prostoru. Takže bych to v případě většího čipu viděl na 24 clusterů (576 SPs).

Samozřejmě nVidia může vycházet z jiné architektury. Pokud ale zůstane u současné, bylo by možné dosahnout 2,5 násobku výkonu GT200.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
chosen
Příspěvky: 920
Registrován: pát kvě 05, 2006 9:05 pm
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od chosen »

ad nesleduju to , ale spekulace nad 2x výkon gt200 je z mého pohledu blbost, koukněte na 8800gtx a o kolik má gt200 (280) víc výkonu (a to mezi nimi byl rok a půl) maximálně o 75% vejš

edit: bude už nějakej extrémně reálnej přínos dx10/11?
Voodoo1, Voodoo2, Velocity 100, 2*Voodoo3 2000 AGP, 2*Voodoo3 3000 AGP, Voodoo3 2000 PCI SGR, Voodoo3 3500TV (včetně chobotnice)
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

Je jedno, kolik času mezi nima bylo, vývoj funguje trochu jinak. Základ vývojového týmu třeba 2-4 roky pracuje na nové architektuře a menší část produkuje to, co vychází v mezičase. Opravdu to nefunguje tak, že ATi např. na R8xx začala pracovat až po vydání RV790 a podobně.

GT200 oproti G80 není zas až tak rozdílná. Běží na stejné frekvenci (jádro i paměti), sběrnice je o třetinu širší, tzn. paměťová propustnost se liší jen o 1/3, má o 25% více clusterů (každý obsahuje o 50% více SPs a zrychlila se práce s nefiltrovanými a bilineárně filtrovanými texturami). Takže když si to spočteš - aritmetický výkon je teoreticky 1,87x vyšší, výkon v ostatních ohledech tak o 1/3 (ROPs, sběrnice), takže reálný rozdíl 70-80% je odpovídající.

V tuhle chvíli může dojít k nárůstu přenosové kapacity sběrnice o 2/3 a aritmetický výkon může vzrůst na dvojnásobek. 40nm proces by měl umožnit alespoň nějaký nárůst na frekvenci, a taky nevěřím, že se na té architektuře vůbec nic nezmění. Takže rozdíl mezi GTX280 a G300 klidně může být větší, než mezi 8800GTX a GTX280.

Mimoto je třeba brát v potaz, že v současné době ATi přechází z 55nm na 40nm stejně jako nVidia, takže oba mají - co se procesu týče - stejné možnosti a rozdíl bude jen v tom, jak zvládnou (resp. zvládli) architekturu.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
chosen
Příspěvky: 920
Registrován: pát kvě 05, 2006 9:05 pm
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od chosen »

ah já fakt myslel že se pracuje na jednom a pak až je to hotový tak se začne na dalším :-/ ale to je asi pro ne blbost oni potřebujou furt něco prodávat.... atd... ok nechal jsem se poučit
Voodoo1, Voodoo2, Velocity 100, 2*Voodoo3 2000 AGP, 2*Voodoo3 3000 AGP, Voodoo3 2000 PCI SGR, Voodoo3 3500TV (včetně chobotnice)
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

No počkat, já jsem si doteĎmyslel, že GT200 byla vyvíjena společně s G80. Kdysi jsem o tom někde šetl článek. Vše tomu i odpovídá, měla to bejt jen rychlejší verze G80, vyvíjela se s ní, proto jsou si karty tak podobné a G92 je v podstatě novější čip než GT200. GT200 vyšla tak pozdě protože ji nebyl důvod vydat, tak byla přepracována a byl do ní přidán její (řekněme zatim nejlepší e všech GPU) power management, UVD atd.

A co se využitelnosti DX11 týče, je to nula od nuly pojde, něco jako DX10. Doslova výsměch, protože PC gaming upadá a vše jsou jen porty z konzolí a tam jaksi DX10 neni, i když R500 by některé prvky měla ale o tý pozměněný NV40 v PS3 se to řici nedá.

A jak kdysi řekl někdo vysokej z Epicu když kritizoval integrovaný GPU. Oni tu hru museji napsat pro tu nejhorší kartu která to spustí, ne pro ty karty na kterejch to pojede na full. Proto UT3 psali na R300, atd. Vše ostatní jsou jen efekty a balast nalepenej na to aby to vypadalo lépe a high end GPU se vytížili. Prohlásil tehdy, že kdyby to napsali na G80 nebo nebo třeba klidně i na takovej Radeon HD2600pro, tak by to vypadalo 4x líp všechno bomba ale provařili by na tom, protože větčina lidí ma low-end a lidi s DX9 by to vůbec nespustili, atd.

Aneb dokud hry půjdou v DX9 spustit a navíc se vizuálně od DX10 lišit minimálně, tak tu DX10 hra nemáme, natož DX11. Proto jsem zastáncem GT300 ala jen ještě více tlustá G80. DX11 tam bude asi jako DX9 na Geforce FX, bude a ve svý době ho nikdo nepoužije protože hry takový nebudou, takže si to v klidu můžou dovolit.
chosen
Příspěvky: 920
Registrován: pát kvě 05, 2006 9:05 pm
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od chosen »

no ad dx10 , viděl jsem hodně screenů dx9 vs dx10, rozdíl jsem nepochytil (jo třeba v osvětlení v crysis), dále se řeklo, že bud to vylepší grafiku nebo výkon, a to jsem teda tyky nikde markantně nepochytil, takže vista je úplně zbytečná, jo jak vidíte jeste W7 oproti XP? (bude to lepší, nebo jen pro toho kdo bude chtít DX11?), jinak všechno jede pod DX9 taky, neříkám že bych chtěl aby to nejelo :evil: ale pak to trochu sráží psát pro dx10 , ale jinak je pravda, že se to dělá ty hry hlavně na konzole, a ta jejich grafika (jak se psalo že to vydrží několik let před PC, a do půl roku bylo PC úplně někde jinde a konzole fakt hnus) je nic moc proti PC, a dále já nevim ale proste ty hry od roku já nevim, kdy třeba vyšel HL2 (hrál jsem ho před půl rokem tepr a oproti Far Cry 2 třeba mi to hnusný nepřišlo) ty hry vypadaj vpoho :-/ ale já si klidně i v dnešní dobe zahraju starou hru (2000 rok) a nepřijde mi to

neříkám že se to nezlepšuje třeba oproti tomu HL2 , třeba unreal engine3 (ten je dokonce jede na všem) , nebo třeba ten Race Driver Grid (a další, je toho hafo),

jenže me jde vo to že když zabrousim na "ty fóra" tak tam lidi říkaj že HL2(source) je dnes vykopávka (ano neříkám že ne) ale já říkám: opravdu na tom až tak sejde, uráží vás hrát trochu starší hru (graficky) , je to k zblití? ne neni (proto na "ty fóra" už nelezu)

edit: jo jinak na xbox 360 to vypadá jeste vo dost líp než na PS3, ale furt je to o hodne (myslím že HODNE) horší než na PC, jsem viděl nekde srovnání a řeknu dopadlo to upřímě katastrofálně (pro konzole), mázlý, malý textury, témeř žádná hra není reálně 1080p, a tím pádem na to doplatí PC :-(

edit: ad vývoj UT3 na r300, asi je to tak u všech, vzpoměntě si (ale jestli si nevymejšlím ) pokud si dobře pomatuju tak HL2 jela většina vývoje na 2000+ athlonech XP + geforce 4 (myslím že dokonce i optimalizační část teamu)
Voodoo1, Voodoo2, Velocity 100, 2*Voodoo3 2000 AGP, 2*Voodoo3 3000 AGP, Voodoo3 2000 PCI SGR, Voodoo3 3500TV (včetně chobotnice)
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

No zrovna Crysis bych si do huby moc nebral, tam je 0% DX10 kódu. 80% SM 2.0 Zbytek 3.0. Pokud ti něco chy\bí v XP protože marketing zapracoval aby jsi si to nemohl zapnout, musíš jít jen do config souborů a zapnozut to ručně, všechno jede, je to komplet DX9 hra. U crysis warhead už od té kamufláže ustoupili a jdou max detaily i v XP rovnou z menu.

K UT3 - asi nejlepší Engine monetálně. Nehrajou si na DX10, prostě nemusej, dávaj najevo že je to SM3.0 dotažený na maximum. Vypadá to skvěle, běží to naprosto skvěle (tuny FPS), neni to moc CPU náročné a přesto to podporuje x-threadový zpracování scény a opravu to tam s jádry CPU lineárně škáluje.

Síla současnejch GPU je využívána jen k pořád více a více prasáckejm konverzím. Vydá se lepší GPU? Ok, můžeme tu konverzi z konzole ještě více odfláknout ona už to tam ta bruteforce ňák dorovná. Příklad za všechny GTA4. Nejlépe jede a vypadá na PS3. A nyní, hardware. PS3 má 256 XDR (další generace RDRAM) na Ňákejch to je jedno kolem 4ghz. Tato paměď je sdílená pro CPU a GPU! GPU je NV40/G70 architektura, jeho výkon by se dal přirovnat k 6800GT, protože má také 16 pipelines, podobné takty lepší ale zas horší propustnost. Sice to tam běží v 1024x600 myslim a jen se to upscaluje přes cell, ale na pc to jednak vypadá vyblitě, druhak na max detaily tomu ani karta s 1gb Vram nestačí, + kolik to chce ram, atd. Takže PC verze je hrubyl odhadem na HW 5x náročnější a celkově na paměť držte se 30x náročnější než konzolové verze. Kdyby někdo udělal opravdu hru na možnostech současnejch PC...... takovej teselator už z R600 = rovná povrchy žádné viditelné polygony... bylo by to božský, ale toho se dočkáme až s příští generací konzolí.

A k Windows 7. Zde marketing MS super zapracoval, využil neúspěchu jednoho katastrofického produktu aby protlačil jeho derivát. Rozíl mezi Win7 a vistou je nulovej. Je to to samý jako Win2000 a XP, to samé jádro, jen to jinak vypadá. Bože vždyť to používá i stejné drivery! Win 7 oproti vistě jen jinak vypadaj a jsou od základu trochu lépe nastavený takže z nich máte rychlejší pocit ale 10 minut klikání ve vistě a je to taky\ takové, jde o to si to nastavit. Prostě jsou to totožné systémy. Pokud chceš něco lepšího kde to půjde DX11 tak jdi do win server 2008 - taky to samé jádro ale žádnej balast, stabilita, rychlost, bootuje to rychlejc jak čerstvý XP, neni tam nic, žádnej bordel ani media player od základu. Ten hle systém se mi z těch novejch jedinej líbí.
chosen
Příspěvky: 920
Registrován: pát kvě 05, 2006 9:05 pm
Bydliště: Praha
Kontaktovat uživatele:

Příspěvek od chosen »

edit sorry crysis jsem fakt přestřlelil (když jsem si tedka uvědomil, že mi jako jedna z mála her jela na SM 2.0 grafice z těch novejších), ne ne já z XP přecházet (jen kvůli DX11, ani vpodstatě kvůli ničemu jinýmu) nehodlám, jen jsem se ptal. Ano uvažovat nad servrovou edicí není špatnej nápad. takže W7 suxx, takže vpodstatě zůstanem na XP + DX9 :roll:
Voodoo1, Voodoo2, Velocity 100, 2*Voodoo3 2000 AGP, 2*Voodoo3 3000 AGP, Voodoo3 2000 PCI SGR, Voodoo3 3500TV (včetně chobotnice)
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

upozornění: čtěte jen, pokud vás zajímá některé z těchto témat: zrušená G100 a GT212, důvody absence podpory DX10.1 u nVidie, přínosy DX11, škrty v DX10

Ad GT200 - nebyla vyvíjená zároveň, nová generace s následnou půlgenerací se zároveň nevyvíjejí. Teorií je hodně, ale co je podložené je fakt, že nVidia ohlásila GP-GPU dokumentaci k produktu, který slíbila na konec roku 2007. A G92 ani GT200 zmíněný feature-set nemají :-) Zajímavý je i názor, že G100 měla být o něco výkonnější než GT200, byla údajně projektovaná na 55nm proces, který měl oproti původním plánům velmi výrazné zpoždění, takže místo ní nVidia připravila GT200 na 65nm proces. I tak měla zpoždění (že to nevadilo, je druhá věc :-) )

Každopádně nVidia měla v roadmapě pro konec roku 2007 high-end produkt, který ale nemohla vydat, takže šla jako "high-end" ven G92, která původně měla být jen vyšší mainstream. Že G92 nebyla nástupcem G80 je patrné už z faktu, že při vyšším rozlišení a FSAA byla pomalejší. nVidia měla štěstí, že ATi vydala jen RV670 (narychlo zmenšená R600 s upravenými samplery pro DX10.1, Hartogův tým tehdy pracoval na RV770, Demersův zřejmě na R8xx), zatímco ATi měla štěstí, že nVidia nevydala nic víc než G92, proti které nepůsobila RV670 jako výsměch.

Ono se dost proslýchalo, že dokud se nVidia nedozvěděla o skutečném výkonu a problémech R600, tak se toho čipu a jeho derivátů hodně obávala. Je to vidět i na produktech, které proti ní nVidia chystala - G80 byl několikanásobně větší než G71, byl to vůbec největší čip, který do té doby vyšel, GT200 to ještě o dalších 100mm² překonal, přičemž G100 měl být ještě větší (počtem tranzistorů, ne na plochu).

Ad DX11 - DX11 není jen o grafice. Ale pokud vezmu záležitosti kolem grafiky, tak první přínos je, že integruje to, co přineslo DX10.1, tzn. dotažení blbostí a nedomyšleností DX10. Tzn. ty nárůsty výkonu (případně kvality alpha textur), které byly prezentované v pár recenzích na DX10.1 hrách, se budou týkat i DX11. Pokud nVidia nebude mít se svými DX11 produkty extrémní zpoždění, tak se tyhle výhody rychle projeví - DX11 (stejně jako DX10.1) bylo vyvíjeno s ohledem na snadné přeportování DX10 her. Microsoft si byl vědom, že DX10 mělo mouchy, které bude z hlediska vývojářů možné díky DX11 snadno zaplácnout i jednoduchým patchem.

Pokud se vrátím k DX10.1, je jeho podpora-nepodpora z hlediska nVidie další ukázkou toho, že po G80 toho už moc nešlo podle plánů. Už v dokumentaci G80 bylo uvedeno, že SPs byly navržené s ohledem na DX10.1, takže nVidia s podporou DX10.1 počítala už tehdy. Zřejmě ji měla přinést právě nevydaná G100. Tak nVidia zůstala u architektury G80 (komu by vadila absence podpory DX10.1, když žádné takové hry nebyly a ATi byla mezi životem a smrtí) a podporu naplánovala na 40nm refresh. Z tehdejšího hlediska to dávalo smysl. Po65nm GT200/G92 by byly vydané 40nm DX10.1 čipy a kdyby měl proces zpoždění, zaplácl by se mezičas jednoduchým optickým shrinkem, se kterým konfigurace 65nm GT200 i G92 počítala. Stačí si všimnout, že oba čipy po zmenšení na 55nm jsou stále dost velké na to, aby mohly nést původní sběrnici v celé její šířce.

Problém byl v tom, že 40nm proces měl snad historicky ze všech procesů vůbec největší zpoždění a i po spuštění produkce následovala půlroční nepoužitelnost, což samozřejmě nemohl nikdo tušit. Proto nVidia, resp. její marketingové oddělení, muselo podporu DX10.1 po takovou dobu ignorovat. Oni ho chtěli, plánovali, ale prostě nemohli... Opět viz roadmapa - podle původních plánů měla 65nm GT200 nahradit na přelomu roku 2008/2009 40nm DX10.1 kompatibilní GT212.

Protože nVidia neměla DX10.1 hardware, tak se tudíž do jeho propagace nehrnula, a proto je jen minimum her, které existují i v DX10.1 verzi. Těžko říct, do jaké míry bude nVidia propagovat DX11, když zřejmě nebude první, kdo s ním přijde, ale tak jako tak, DX11 bude podporovat hardware obou výrobců, takže vývojáři budou mít důvod využít alespoň těch vylepšení, co přišly v DX10.1.

Novinky v DX11 budou compute shadery, tzn. možnost využít GP-GPU možností a to i pro hru, takže pokud vývojář bude mít zájem, bude mít možnost sám využít grafickou kartu pro nějakou jednodušší fyziku, AI, složitější post-processing efekty a podobně. Pak tam bude tesselace - tentokrát konečně povinná - to sice měla být už v DX10, ale z jistých důvodů ten požadavek byl vyškrtnut. A s tesselací související domain shader a hull shader.

Další drobný - ale velmi příjemný - a to i pro majitele staršího hardwaru(!!!) bude podpora pro multi-threading. Půjde o rozdělení na tři oddělené stages, které mohou běžet na různých jádrech procesoru, takže konečně i samotné DX bude schopno efektivněji využívat vícejádrové procesory.

A nakonec to budou nové formáty pro kompresi textur nadesignované především pro HDR formáty, které se doteď používaly téměř výhradně v nekomprimované podobě, takže to žralo paměť a přenosovou kapacitu sběrnice. To by mělo přispět k většímu rozšíření kvalitnějších forem HDR renderingu, protože to nebude až takový žrout výkonu, jako dosud.

Četl jsem i zmínky o přísnějších požadavcích na podporu filtrace textur, ale zatím nevím, jestli to opět nebylo vyškrtnuté ze seznamu požadavků. Stejně jako tesselator to mělo být vyžadováno už v DX10 - možná si vzpomenete, jak v době DX9 bylo zmiňováno, že DX10 bude mít definované požadavky na kvalitu filtrace a nebude tak možné ze strany výrobců hardwaru cheatovat pro dosažení vyššího výkonu. To se nikdy nestalo. Netuším, z jakého důvodu, ale když se podíváte na texturovací jednotku G80 i R600, tak je vidět, že se na to oba výrobci připravovali. Jak po stránce kvality (kvalita šla nahoru u obou, podpora filtrace bez úhlových optimalizací s trilineárním základem), nVidia kladla ještě důraz na výkon při anizotropní/trilineární filtraci, ATi kladla důraz na FP16 filtraci bez ztráty výkonu a vlastně veškerou filtraci textur R600 prováděla v FP16, i když to nebylo nutné. Možná Microsoft sám uznal, že když nebyl schopen specifikace uzavřít dřív, než začal vývoj čipů a každý výrobce šel jiným směrem, tak nemá smysl řešit, co z toho do specifikací zahrne a vyškrtnul to sám. Proto taky následné čipy (G92, GT200, RV770) měly texturovací jednotky výrazně okleštěné oproti G80 a R600.

Objevily se ale spekulace, že v rámci DX11 nějaké požadavky na filtraci budou, takže existuje možnost, že výrobci budou nuceni vrátit se opět k velkým texturovacím jednotkám, což by mohl být důvod, proč implementace DX11 bude poměrně citelně zvyšovat plochu čipu. Potvrzené to zatím není.

Shrnu-li to - DX11 (ale stejně jako DX10.1) tu není od toho, aby to přineslo samo o sobě nějaké "hezčí hry". To je věc vývojáře. Už se SM2.0 se dá vytvořit prakticky cokoli, jen záleží na dostupném výkonu. A novější verze DX by měly řešit hlavně to, aby ty efekty, které vývojář použije, žraly toho výkonu méně. Ne vždycky se to povedlo optimálně - buďto proto, že danou verzi DX podporoval je jeden výrobce, nebo proto, že podporu odfláknul a ty možné přínosy se nemohly projevit, nebo proto, že to Microsoft zvoral, ale DX11 vypadá pozitivně. Zatím slyším jen samé superlativy, půjde do toho ATi i nVidia, takže si myslím, že tam skutečné zefektivnění bude a ochutnávka v podobě DX10.1 je toho docela příjemným důkazem.

V Crysis se DX10 používá jen na vylepšený motion blur využívající geometry shader, jinak nic. Samotná prostředí v sobě z DX10 nemají vůbec nic, takže ten motion blur se týká ještě jen paňáčků... Takže DX10 opravdu jen "aby se neřeklo" a aby to dělalo hře reklamu.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

Mam pár dotazů jestli neva.

- Multithreading u DX - půjde to použít jen na DX11 hry nebo je možnost že se zrychlí i starší enginy?

- K filtraci textur. OK, při použití FP16 co R600 zváldne v jednom průchodu tak na to Rv770 potřebuje 2, ale, nevšimnul jsem si, to samé platí u NV která má dle mého názoru momentálně nejlepší AF, jakékoliv vizuální změny kvality filteringu přes všechny čipy od dob R600 / G80 doposud. Tak v šem přesně spočívá to vylepšení? Aby to nebylo jako vylepšení komprese jak se vždy u nové generace říká, ale (dam příklad u NV) NV40 potřebovala na tu samou věc více paměti než NV30 a staršé, G80 dokonce razantně více, tak o jde spíš na druhou stranu ačkoliv marketing říká opak.

- Takže se spíš přikláníš názoru že R8xx generace bude mít ty velké jednotky z R600?

- Jo a ještě 40nm u TSMC, věčně žhavé téma.... Na PCT jsi psaz že vzhledem k tomu že Rv870 (bůh ví jestli mu tak nakonec budou říkat), bude dost velké na to aby pojmulo 2000sp nebo 1600 a více rops... nebylo by pravděpodobnější kvůli současné situaci u TSMC vydat čip co bude mít obrovskou fyzickou rezervu ala počítá s mnoha vadnými bloky, takže fyzicky až 2000 a aktivních 1600? Protože u velkejch čipů by o zvedlo výtěžnost. Jo a ještě se říká něco o R800 aka že nebude pracovat s AFR, to by byla celkem záchrana.

- Jo a ještě CGPU u grafik. Proč je to tak důležité. Stejně tu bude OpenCL, který zvládnou i DX10 karty. Proč neudělaj tohle přes openCL, nebo snad nelze v jeden čas provádět operace s OpenCL a renderovat 3D scénu? Pokud se nepletu tak OpenCL u ATI dokonce lze skloubit už s kartami R520 generace a vejš, nemusí to bejt ani unifikovaná architektura.
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

Multi-threading se bude týkat všech systémů, kde nainstaluješ DX11. Nebudeš potřebovat DX11 grafiku a tudíž ani DX11 hru. U starších sestav to asi moc přínos nebude, protože tam tě CPU brzdí málokdy, ale tam, kde je slabší procesor a silná grafika, tak může pomoci dost.

FP16 filtraci podporují všechny DX10 (a výš) grafiky. Rozdíl je v tom, že texturovací jednotky R600, RV670 a G80 dokážou v jednom taktu udělat totéž, na co jednotky RV770 a G92/GT200 potřebujou takty dva. nVidia s G80 si ale nechala otevřená zadní vrátka v tom, že její texturovací jednotky uměly buďto za takt 1 bilineární FP16 texel, nebo 2 trilineární Int8 texely, takže ve hrách nevyužívajících FP16 texturing mohly být také využity na 100%.

Nevím, jestli tohle bude DX11 vyžadovat, takže se nepřikláním k ničemu. Souhrn technologických požadavků bývá velmi široký, ale nakonec se vždycky dost věcí seškrtá.

Hypotézy ohledně R8xx se mění skoro denně. Pokud je pravda, že mají jeden čip, který má 180mm², 800SPs, 16 ROPs a 128bit sběrnici, tak při zachovaných proporcích by čip s 300mm² měl být dost velký na to, aby pojal 2000SPs, 32 ROPs a 256bit sběrnici. Ten poměr beru z RV730 vs RV770. Stejný poměr mezi rozměry čipu (cca 1,7x), stejný rozdíl ve sběrnici (2x), stejný poměr co se počtu ROPs týká (2x) a vyjít by tedy měl i stejný poměr v SPs (2,5x). Jenže bůh ví, jestli vůbec nějaký 300mm² čip existuje s jestli v něm oproti tomu menšímu čipu nebude něco jiného, co by ten prostor pro těch 400 SPs zabralo pro sebe.

Compute shadery jsou určeny hlavně pro zjednodušení v současné době zbytečně komplikovaných situací. Vývojář, pokud chce provést nějaký výpočet přes GPU, tak doposud musel myslet ve 3D, na polygonech, protože DX doposud umožňovalo pouze 3D rendering. Takže to bylo trochu takové drbání se levou nohou za pravým uchem. Computer shader umožňuje realizovat výpočty rovnou bez toho, aby je vývojář musel servírovat na polygonech. Používat kvůli tomuhle OpenCL by mi nepřipadalo moc praktické, compute shader je součástí DX11, takže jde o jedno prostředí, s OpenCL by na grafickém čipu musely běžet dvě různá API a vývojář psát hru napůl v D3D a napůl v OpenCL a ještě to nějak spojovat dohromady... To by ke zjednodušení mělo hodně daleko :-) Navíc podpora pro Compute Shader bude i na úrovni hardwaru, takže pro to bude optimalizovaný.

Compute shader, jelikož je součástí DX, zajistí několik výhod - efektivní kompatibilitu a vzájemnou komunikaci s ostatními shadery a moduly DX, různé vzájemné sdílení dat... taky kompatibilitu s budoucími čipy. Díky D3D je možné, že dvanáct let staré hry, které byly napsány pro jednu ALU, dneska běží na kartách, které mají stovky ALUs a využívají pro svůj běh všechny. Oproti tomu první vlastní pokusy ATi a nVidie v tomhle oboru nebyly (a dosud nejsou) nijak zázračné - PhysX nedokáže využít čip kompletně (zřejmě by se dostával do konfliktů s běžícím D3D?), ATi řešila problémy s využitím více než 320 SPs při F@H. Zatímco Microsoft díky zavedení standardů zajistí, aby kód, který se napíše dnes, využil efektivně i čip, který vyjde za pět let. A dál tím bude zajištěno, že půjde o funkční záležitost na všech systémech s nainstalovaným DX11 a nemusí se spoléhat na konkurenční standard.

Je možné, že se díky tomu konečně rozšíří i podpora HW akcelerace pro různé utilitky pro zpracování fotek, videa, zvuku... Cílem Microsoftu prostě je, aby všechny úlohy, kde to má smysl, pokud možno běžely přes GPU.

Navíc compute shader opět bude zpětně kompatibilní: DX10 hardware bude spadat do kategorie CS4.0, DX10.1 do CS4.1 a DX11 do CS5.0.

Mně osobně připadá DX11 a SM5.0 jako to nejzajímavější, co přišlo od SM2.0. Jen je třeba mít na paměti, že grafická stránka hry není věcí DX, ale věcí vývojáře.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

Proč je podle tebe OpenCL horší API? Mě přijde naprosto lepší, funguje i na některých SM3.0 grafikách, je multiplatformní, což je dosti důležité, funguje na MACu, na kterej stejně profesionálové přecházej protože od Visty je na zvuku lag kterej se nepodařilo vyřešit, atd.
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

Netvrdím, že je horší, ale normální lidi z něj nebudou profitovat takovou měrou, jako z compute shaderů (i když těm asi bude trvat dýl, než se prosadí). Faktem je, že způsob, jakým budou compute shadery integrovány v DX umožňuje mnohem lepší interakci s ostatními shadery a Direct3D celkově. Vzájemné sdílení dat, kompatibilita... Tohle OpenCL nemůže nabídnout. OpenCL bude spíš pro profesinální použití, Compute Shadery pro normální lidi, kteří hrajou hry, používají windows, přehrávají a komprimují video...

Navíc podpora compute shaderů bude zaručená tím způsobem, že je to součást DX11, takže kdokoli bude chtít mít DX11 hardware, bude muset CS (včetně použitelných driverů) podporovat. A to se týká nejen ATi a nVidie, ale i Intelu a jeho integrovaných čipů. Takže i to by mělo zaručit slušnou adopci jak ze strany výrobců hardwaru, tak ze strany vývojářů softwaru.

CS je hlavně součást grafického API, na což je cílený. OpenCL je multiplatformní a univerzálnější, takže mi připadá, že každý z nich si najde trochu jiné využití. Rozhodně ale obojí začně velmi rychle vytlačovat současně propagovanou CUDA, která ztrácí na významu (což teda není jen můj osobní názor, ale očekává to i prezident Khronos group).
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

Tak CUDA je proprietální API které by možná mělo něco do sebe kdyby bylo nutné ale není takže si zde NV takovej malej monopol nevytvoří, jako se to třeba 3DFX povedlo ve svý době s Glide protože osotatní API byli totálně neschopné a chyběla tam buďto kvalita nebo výkon, ale časem se to i tam začalo obracet.

A k driverům a DX11 = automatická podpora všeho tohodle - nebuď si tak jistej. :twisted: Stačí se podívat na dnešní drivery Intelu a nnebo S3. Taky to papírově umí dost, ale to že v polovině případů to končí BSOD, bude dle mého názoru, hlavně v případě intelu naprostá katastrofa, a nečekám že to bude bez problémů, protože Intel prostě začíná defakto od nuly, ATI i NV už maj rozjetý SW teamy, konktakty s vývojáři. U Intelu bude trvat roky než to dorovná.
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

Pokud Intel neudělá takové drivery, aby tohle fungovalo, pak se dost potopí. Ale na tohle si dají pozor - určitě budou chtít přijít s integrovanou DX11 grafikou a pokud by drivery nezvládaly základní funkčnost ve Windows (protože CS se netýkají jen her), pak by měl Intel velký problém...
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
Uživatelský avatar
no-X
Administrátor
Příspěvky: 6912
Registrován: stř dub 28, 2004 9:02 am
Bydliště: Č. Budějovice
Kontaktovat uživatele:

Příspěvek od no-X »

nVidia vydává Fermi/Tesla karty půl roku před očekávanou dostupností
AnarchX píše:Fermi Tesla is out:
Obrázek

520-630 GFLOPs DP
typical consumption 190W
availability May 2010

http://www.heise.de/newsticker/meldung/ ... 60474.html

@Nvidia: http://www.nvidia.com/object/io_1258360868914.html
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
socket
Příspěvky: 1139
Registrován: stř črc 18, 2007 12:13 am
Bydliště: Myjavske kopanice

Příspěvek od socket »

3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
Uživatelský avatar
DOC_ZENITH/XAN
Senior member
Příspěvky: 1922
Registrován: stř říj 20, 2004 9:37 pm
Bydliště: Praha - Hloubětín

Příspěvek od DOC_ZENITH/XAN »

Poslední dobou se mi nezdá pár věcí, netýká se to teda konkrétně fermi, ale v její souvislosti se o tom dost mluvilo.

1. Geometrickej výkon. Proč o něm všichni tak diskutujou? Dokud se hry budou dělat po staru, bude geometrickej výkon vždy limitovanej ze strany CPU, protože prostě to co do GPU jde napřed muselo zpracovat CPU. Když si to člověk vezme, tak

Gf 256 = 10 milionů trianglů.
GF4 TI = 50
GF 6800ultra = 400
Radeon X1950XTX = něco těsně pod miliardu.

Dále pak to je diskutabilní protože díky unifikovanejm shaderům se rozložení sil může měnit a výkon posouvat. Slyšel jsem kdysí něco že S R600 ( u G80 shadery unifikovaně nefungovaly ) byl geometry výkon až desetinásobnej oproti předchozí generaci.

Tohle jsou obrovská čísla a donedávna takřka exponencionální růst, kterýmu se CPU nedovedou ani přiblížit. Když mam v ňáký hře problém s geometrií, a ocnu grafiku, fps se nezměněj, ocnu CPU a jde to prakticky lineárně nahoru. Nebo když u NV40/G7x zamknu vertex shadery a necham třeba jen jeden aktivní ( když dá člověk 0 tak ná sleduje logicky při přechodu do 3D výtuh ), tak mi to sníží výkon v praxi tak o 5% ovykle si toho člověk ani nevšimne a to kartě zkrouhnul geometrickej výkon o 90% někam do dob GF2. U novejch karet už SW cestou jednotky nejdou vypínat tak nemůžem dělat tyhle pokusy, ale stejně. Dokud se ten model samotnej nebude vytvářet uvnitř GPU, nemá smysl vůbec o geometricky výkonu mluvit.

Huangovi kdesli ulítlo že hry pro GF100 budou mít stomilionové modely postav. No, jako mezi námi dobrej posun ( ale heh, Uncharted 2 na PS3 má 80 milionů, a počítá to tam Cell, na pc tohle hold s 20 let za opicema starou x86 nejde ). Navíc v těch novejch slajdech je že GT200 má pixel shjader výkon 150x nad NV30, ale geometrickej jen 3x. a že to museli změnit. Jako fakt? No, to je dost bída když už NV40 měla 4x, nebo mi něco uniká? I kdyby tam ale bylo 3x, tak by to stejně nikdo v hrách nepoznal, to je na tom to nejhorší.

Co si myslíte, změní konečně DX11 to jak vývojáři dělaj hry? Budou se složitý modely generovat až v GPU a ne v CPU a pak posílat GPU? Dokud budou multiplatformní hry tak se současnou generací konzolí asi ne, ale mohlo by se to stát.
Odpovědět