Stránka 1 z 1

ATI/AMD NextGen

Napsal: čtv čer 16, 2011 2:28 pm
od no-X
http://www.diit.cz/clanek/amd-odhalila- ... ipu/38375/
http://www.hardware.fr/news/11648/afds- ... s-amd.html

skoro to vypadá, že ATI/AMD po letech recyklace vytvořilo od začátku novou architekturu, která na papíře vypadá velice zajímavě... a ještě víc mě překvapuje, že informujou o architektuře, když je produkt bůh ví jak daleko (pochybuju, že by v GF tajně běžela výroba)... wtf?

Napsal: čtv čer 16, 2011 8:54 pm
od ps47
ak to bude lacnejsie,rychlejsie a bude to menej zrat..preco nie? :)

Napsal: čtv čer 16, 2011 10:07 pm
od DOC_ZENITH/XAN
Ať je to klidně dražší když to nebude ROHS a něco to vydrží, a ať to žere co se dá vzduchem uchladit! Jen ať to má výkon!

Napsal: sob čer 18, 2011 1:42 am
od DOC_ZENITH/XAN
Tak jsem si trochu pročítal ty materiály a mam takovou otázku proč? Proč to kráčení k GPGPU, neni lepší tam používat prostě strašně silné čipy typu POWER Gen.7 od IBM? Či specializované jednotky? OK, GPU můžou bejt levná, to jedině. Ale efektivní? To si nemyslim. To ale neni problém, GPGPU vidim jako dobrou věc. Ale tohle, jdou přesně tim směrem co NV, což na jednu stranu chápu ale co na tom nechápu je x86. Proč to dělaj tak aby to bylo schopno zpracovat x86 kód. X86 je ten nejhorší neoptimalizovanej balast, ten nejhorší hnůj kterýmu by se měl každej kdo chce efektivní kód vyhnout. Proč to tam dávaj. Tomu nerozumim.

GPGPU se nám stejně vyvinulo trochu do slepý uličky. Resp dvou uliček. Čekalo se že OpenCL věci sjednotí ale nestalo se. Když se totiž napíše kód "prostě pro OpenCL, to je jako psát kód "prostě pro x86, nebo prostě v C++. Takovej kód je na GPU neefektivní. GPU si neumí věci přebrat jak CPU. Umí vůbec GPU něco jako je prefetch či out of order zpracování? Umí so jeden thread rozdělit na svejch 512SP? Jde o to že GPGPU situace je dnes taková, že aby to dobře fungovalo, tak ten SW musí bejt psanej přímo na tu architekturu. Když ho napíšu neutrálně, nejede dobře na ničem a jede pomalejc jak na CPU. Když ho napíšu pro NV, jede nepoužitelně na ATI. Když ho napíšou na ATI, jede nepoužitelně na NV, i když je to oboje pod OpenCL. Open CL je jen záštita a standard, optimalizace a rychlost/efektivita je úplně jiné téma a to v současné době je velkej problém. Architektury obou výrobců jsou natolik rozdílné jak ještě nikdy nebyly a spíš se nám ty nůžky kompatibility rozevíraj než aby se to sjednocovalo. Jednotné API nám nepomůže když k tomu aby to fungovalo efektivně se ten SW musí napsat stejně na konkrétní architekturu. Výrobci GPU dle mého názoru se tam snažej narvat co možná nejvíc i naprosto hnojáckejch (x86) technologií aby prostě našly uplatnění, protože PC jako herní paltfmorma umírá, novej rychlejší HW nikdo už moc nechce/nepotřebuje, tak dělaj sebevětší nelogické prasárny aby si zajistili odbyt.

Napsal: sob čer 18, 2011 11:44 pm
od swarm
S tou rozdílností architektur GPU kolem OpenCL sis sám odpověděl na to, proč chtěj implementovat i x86 a proč se x86 stále používá, přestože všechny "x86" procesory jsou už dávno uvnitř něco úplně jiného. X86 je extrémně výhodné, neboť se dá dobře používat tak, že si každý procesor původní instrukce rozloží takovým způsobem, aby svou architekturu nejlépe využil, a přímo se s tím počítá.

Nevýhody x86 chápe každý, ale jeho výhody si uvědomuje jen málokdo.

Napsal: ned čer 19, 2011 12:24 am
od DOC_ZENITH/XAN
OK, ale GPU tohle nezvádaj a nebudou. Nebudou. Tečka. Co fermi? Ta umí zpracovat plně 32-bit x86. Jak je rychlá? 4x pomalejší jak Core2 duo? Kdyby GPU uměly dělat x86 a bejt v tom efektivní, byly by to CPU. K tomu aby v tom byly rycheljší jak CPU a jejich použítí by se vyplatilo, musely by na to vyčlenit asi tolik tranzistorů co maj CPU. Myslí si tady někdo že Nvidia či ATI najednou z ničeho nic bude efektivnější v exekuci x86 instrukcí než CPU čip Intelu? Ne. Nebude, bude x-násobně pomalejší, tudiž je to naprosto na nic. To samé CPU, když SW cestou renderuje 3D scénu je x-krát pomalejší než GPU. Proto tu taky ty GPU máme že, protože to CPU nestíhaly tak 3DFX měla dobrej nápad spoustu toho loadu přesunout jinam.

Čim víc o tom přemejšlim, tim víc k ničemu a jako mrhání tranzistory mi ta x86 podpora tam přijde. Nefuguje to dobře, je to pomalé, ten čip to nedává a nebude dávat. Pokud jsou tak dokonalí a udělaj čip co zpracuje x86 a zároveň to bude dobré GPU, tak se k nim začnu modlit. Ale už předem říkám že ne, nepovede se jim to. Nvidia na tom ztratila velký prachy + kus své reputace. Intel na to kapituloval a teď i AMD/ATI musí udělat svůj pokus, a bude to stejnej epic fail. Procesory se vyvíjely 20 let aby to byly out-of-order stroje co jsou optimalizovaný na zpracování x86 kódu. A neuměj nic jinýho, nemaj nic jinýho, celá ta tuna tranziustorů se soustředí na tu jednu věc, na tohle jedno použití. Nelze vzít Cell a naučit jej emulovat x86 aby ten výkon byl ok a ne jak P3 coppermine. Je nemožné vzít PowerPC a udělat to ačkoliv to jsou hrubou silou silnější čipy než x86. A také nelze vzít GPU a naučit jej to.Ano naučit se to může, ňák ten kód zpracuje, ale bude to neefektinví a pomalé, bude v tom prostě suxxovat. Je to jako provádět SW místo HW renderingu a chtít aby to mělo použitelnou rychlost.

Ne, nejde to. Jediná možnost jak využít síly GPU je napsat tu aplikaci přímo na něj, na to v čem vyniká, aby se na to ta jeho architektura chytla. A to bohužel u GPU znamená, že to poběží dobře jen na jedný rodině čipů a bude to naprosto suxxovat na všem ostatním. Tak to prostě dnes je a nevidim z toho cestu ven. Na Fermi jsou to téměř mrtvé tranzistory, užití to nenašlo. Tady to bude to samé. Stačí se jen podívat třeba na takovej Physx a jak taková amulace je "efektivní" . To bylo něco snažšího než x86, Nvidia to portla na Cudu, ten původní čip byl total pomalá kravinka do klasického PCI slotu. A přesto emulovat tohle, na GPU co jsou 100x silnější hrubym výkonem, způsobí velice citelnej performance hit. Nejde to a neni to efektivní.

GPU se už v určitejch výpočetních farmách pro určité operace používají, ale je to opět kód psanej přímo na to GPU, čistě jednoúčelovej kód. Neni to standardizovaný a nejde to momentálně standardizovat. Toť můj názor.

Napsal: čtv pro 29, 2011 3:58 pm
od bigless
Zase je tu ticho jak při akvizici před 12lety. :shock: Takže nadhodíme takovou obecnou otázku. Co si myslíte o nadcházející generaci Tahiti? Jaká bude reakce nvidie? Zlomí Kepler Tahiti vaz? :)

Napsal: čtv pro 29, 2011 4:39 pm
od Bob van Sikorski
podle igora zlomí :twisted:

nedalo mi to...

Napsal: čtv pro 29, 2011 4:41 pm
od Bob van Sikorski
jinak tu chybí zásadní prolink, nejlepší cs rozbor architektury:

Vše o Radeonech HD 7000 aneb architektura GCN detailně (@diit.cz)

Napsal: čtv pro 29, 2011 6:29 pm
od bigless
Ano. Četl jsem. Včetně Adamovy a Bobovy roztžky :P

Napsal: čtv pro 29, 2011 7:33 pm
od no-X
Ta se ale netýkala tohoto článku. Jeho autor je totiž naprosto bezkonfliktní :twisted: