Největší shit od nVidie?
tam je problem s odspajkovanim BGA a nevyzera to tak krasne ako "made by nvidia"
where?Edit OBR: Nvidia podobné přívěsky prodává už hodně dlouho, podle situace. Stačí zapátrat v historii internetu a najdete jich několik, sám mám také takový ale s jiným jádrem. Toto není novinka, ale pěkně stará záležitost - tento konkrétní je v nabídce už od prosince 2008!
3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
OBR má totiž všechno a zásadně minimálně o 2 měsíce dříve, než to je vydané. Bohužel ho nikdy nenapadne se stím pochlubit, dokud to neprodá / nevrátí / nepošle nVidii / nevyhodí / neuplatí tím Ukrajince atd. a nikdy si neudělá ani jedinou fotku.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
- wizzy
- Quiz master
- Příspěvky: 1729
- Registrován: pon kvě 03, 2004 11:39 am
- Bydliště: Jeseník
- Kontaktovat uživatele:
To je pravda, můj děda to kdysi dostal od svého zetě (šéf pobočky v Portlandu/Oregon), viděl jsem to naposledy tak před osmnácti roky, ale byl to přívěšek s nějakou 64kB pamětí, takže to bude už hodně dávno, co s tím intel začal.
Průhledný vypouklý čtverec, uvnitř bílý čtvereček s logem intel a nějakým nápisem a vedle toho obdélníček křemíku...
Průhledný vypouklý čtverec, uvnitř bílý čtvereček s logem intel a nějakým nápisem a vedle toho obdélníček křemíku...
W.I.Z.Z.Y. : Wolframový Inteligentní Zabíjecí Záludný Yankee
Core2DUO E4300 (1.8@2.8GHz), Zalman CNPS7700-AlCu, Asus P5W-DH Deluxe, 3GB DDR2, 2x1TB WD Black, DVD-R/W LG GSA-H55L + GSA H12N, ATi HD4850, Thermalright HR-03GT, V2 12MB Dragon, HP LP2475w 24", SB X-Fi Fatal1ty, Leadtek Winfast PxDVR3200 H, Cambridge SW 5.1, Enermax Liberty ELT 500AWT a tak...
Core2DUO E4300 (1.8@2.8GHz), Zalman CNPS7700-AlCu, Asus P5W-DH Deluxe, 3GB DDR2, 2x1TB WD Black, DVD-R/W LG GSA-H55L + GSA H12N, ATi HD4850, Thermalright HR-03GT, V2 12MB Dragon, HP LP2475w 24", SB X-Fi Fatal1ty, Leadtek Winfast PxDVR3200 H, Cambridge SW 5.1, Enermax Liberty ELT 500AWT a tak...
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
A to zmiňuješ z jakého důvodu? nVidia se některých divizí včetně zaměstnanců zbavila už dávno. U ATi se do dostalo na pořad dne až když se kompletně dořešilo vše okolo sloučení s AMD a restrukturalizace, která z toho plynula.
Divize pro mobilní (telefonní) procesory se nVidia zbavila víc než rok před ATi. Divizi pro televizní techniku neměla nVidia vůbec. ATi tímhle de-facto jen dorovnala. Nemá smysl předpokládat, že rozdíl přes $200M se za tři měsíce vyvine jen z úspory na platech pěti procent zaměstnanců.
Spíš je problém v tom, že nVidia nemá produkty, které by byly výrobními náklady srovnatelné s produkcí ATi, přičemž by se daly prodávat za stejné nebo vyšší ceny. G200 je příliš velká pro segment kolem 5-7 korun. G92, která by byla zajímavá, už ale tolik lidí neosloví výkonem a low-end je na takové cenové úrovni, že jsou marže úplně nulové.
Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže
Divize pro mobilní (telefonní) procesory se nVidia zbavila víc než rok před ATi. Divizi pro televizní techniku neměla nVidia vůbec. ATi tímhle de-facto jen dorovnala. Nemá smysl předpokládat, že rozdíl přes $200M se za tři měsíce vyvine jen z úspory na platech pěti procent zaměstnanců.
Spíš je problém v tom, že nVidia nemá produkty, které by byly výrobními náklady srovnatelné s produkcí ATi, přičemž by se daly prodávat za stejné nebo vyšší ceny. G200 je příliš velká pro segment kolem 5-7 korun. G92, která by byla zajímavá, už ale tolik lidí neosloví výkonem a low-end je na takové cenové úrovni, že jsou marže úplně nulové.
Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
- -HoNY-
- Certifikovaný nVidiot
- Příspěvky: 2115
- Registrován: úte bře 01, 2005 5:34 pm
- Bydliště: Brno
- Kontaktovat uživatele:
Však znáš Igora...no-X píše:Nejkrásnější na tom celém je, když si vzpoměnu na Igorovo konstatování, že ATi na RV770 prodělává, zatímco nVidia na G200 má standardní 80% marže
Jde o to, že z hlediska počtu zaměstnanců se AMD musela zmenšit, takže až krize přejde (ale to nikdo neví) nebude mít takovou výkonnost (málo týmů, málo projektů).
Hlupáci kradou peníze, nVidioti myšlenky.
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
Jak s tím souvisí krize? RV770 i G200 byly hotové i vydané ještě předtím, než přišla. Stejně tak i cena G200 (GTX260/280) šla dolů ještě předtím, že se projevily první známky krize.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
- DOC_ZENITH/XAN
- Senior member
- Příspěvky: 1922
- Registrován: stř říj 20, 2004 9:37 pm
- Bydliště: Praha - Hloubětín
Něco mi tu nesedí. Mluvíte jako by GT200 byla ňákým fiskem nebo tak.
GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt. (dělam v czc, stavim, opravuju, testuju, navrhuju lidem sestavy a bohužel i řeším problémy. Třeba celofiremně prosnulý problém RV7xx vs Intel P45 se třeba na internetu nikde moc neřeší, nicméně tu je (chyba intelu v tomto případě, ale protože ty lidi často tu P45 chtěj, musim jim tam rvát GTX260)
A to pominu to, že když si na Referenčnim HD4870 zapnu Furmark a odejdu do práce a večer přijdu pokud nebude byt v plamecnech tak karta bude dost pravděpodbně KO. Aneb sražme výrobní náklady za každou cenu že?
Nvidia měla pokud vím probém někde jinde. A to chybovost pocházející už z návrhu ohledně G84 a G86 a všeho co z nich vychází ( i 55nm modely ) kde tepelná roztažitelnost nevhodně použitých materiálů způsobuje fyzickou destrukci čipu, projevuje se to hlavě tam kde jsou rozdíly v teplotách výrazná ala notebooky. Samotné reklamace a žaloby OEM partnerů jsou pro Nvidii ten průser, ale furt je na tom líp jak ATI a za posklední kvartál pokud vím si oproti ATI polepšila v % prodeji.
GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché. Aspoň zbyl čas jí přepracovat a obohatit jí o takové věci jako její úsporné funknce díky kterým je v idle méně žravá jak poloviční G92. Dále pak bych jeho výrobu neviděl niak černě. Mainstream čip na fungl novém procesu bude mít menší výtěžnost než velký high-end na starším, odladěném. Tenhle přešlap udělala Nvidia u NV30 a od NV40 se v těhlech kolejích drží a vychází jí to.
Všeobecně jsme ale poslední, hmm řekněme roky svědky velice (dle mého názoru) špatných trendů.
1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.
2. Rezignace ATI na highend - neúspěch R600 ala chyba v architektuře znemožňující klasické FSAA a nutící kartu do shader resolve, čímž R600 totálně přišla o jakékoliv výhody plynoucí z její paměťová propustnosti. To vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd. Současné prosazování multiGPU v highendu je nesmyslné, dokud trpí nedluhy SLI/Crissfire. Mohl by jej nahradit jiný systém, třeba širší forma Ringbusu, která by propojovala části čipu, které by mohly být fyzicky oddělené (rádoby) každý se separátní pamětí, shadery, atd, výroba těchnto menších bloků by byla levná a jejich počet téměř libovolný (i na více PCB/kartách). Framebuffer by mohl být řešen externě, mohl by mít vlastní paměť dnes třeba další generaci XDR. Aneb podobný koncept jako měl třeba 3Dlabs Wildcat 800, ale s méně složitými, menšímy GPU, ale v mnohem větším počtu.
3. Globální úpadek kvality karet. Začneme u Nvidia, u chybovosti G84 a G86 + všech jejich derivátů, dále pak bych ještě napsal o 8800 a 9800GT, které často mají nedostačující napájecí kaskádu která se přehřívá a způsobuje padání karty (stejný spoj jak má 8800GTS 512, ale jen z poloviny osazený). U ATI třeba nedostatečná napájecí kaskáda u Radeonu HD4870, která má při full load 150 Celsia a často nepřežije delší zátěž třeba furmarkem. Netýká se díky bohu HD4890, který si půjčil volteru z R600 a to je jiná třída.
Vše se zkrátka strašně tlačí na cenu. Já bych si za kvalitnější karty připlatil, ale nikdo je nenabízí.
GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt. (dělam v czc, stavim, opravuju, testuju, navrhuju lidem sestavy a bohužel i řeším problémy. Třeba celofiremně prosnulý problém RV7xx vs Intel P45 se třeba na internetu nikde moc neřeší, nicméně tu je (chyba intelu v tomto případě, ale protože ty lidi často tu P45 chtěj, musim jim tam rvát GTX260)
A to pominu to, že když si na Referenčnim HD4870 zapnu Furmark a odejdu do práce a večer přijdu pokud nebude byt v plamecnech tak karta bude dost pravděpodbně KO. Aneb sražme výrobní náklady za každou cenu že?
Nvidia měla pokud vím probém někde jinde. A to chybovost pocházející už z návrhu ohledně G84 a G86 a všeho co z nich vychází ( i 55nm modely ) kde tepelná roztažitelnost nevhodně použitých materiálů způsobuje fyzickou destrukci čipu, projevuje se to hlavě tam kde jsou rozdíly v teplotách výrazná ala notebooky. Samotné reklamace a žaloby OEM partnerů jsou pro Nvidii ten průser, ale furt je na tom líp jak ATI a za posklední kvartál pokud vím si oproti ATI polepšila v % prodeji.
GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché. Aspoň zbyl čas jí přepracovat a obohatit jí o takové věci jako její úsporné funknce díky kterým je v idle méně žravá jak poloviční G92. Dále pak bych jeho výrobu neviděl niak černě. Mainstream čip na fungl novém procesu bude mít menší výtěžnost než velký high-end na starším, odladěném. Tenhle přešlap udělala Nvidia u NV30 a od NV40 se v těhlech kolejích drží a vychází jí to.
Všeobecně jsme ale poslední, hmm řekněme roky svědky velice (dle mého názoru) špatných trendů.
1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.
2. Rezignace ATI na highend - neúspěch R600 ala chyba v architektuře znemožňující klasické FSAA a nutící kartu do shader resolve, čímž R600 totálně přišla o jakékoliv výhody plynoucí z její paměťová propustnosti. To vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd. Současné prosazování multiGPU v highendu je nesmyslné, dokud trpí nedluhy SLI/Crissfire. Mohl by jej nahradit jiný systém, třeba širší forma Ringbusu, která by propojovala části čipu, které by mohly být fyzicky oddělené (rádoby) každý se separátní pamětí, shadery, atd, výroba těchnto menších bloků by byla levná a jejich počet téměř libovolný (i na více PCB/kartách). Framebuffer by mohl být řešen externě, mohl by mít vlastní paměť dnes třeba další generaci XDR. Aneb podobný koncept jako měl třeba 3Dlabs Wildcat 800, ale s méně složitými, menšímy GPU, ale v mnohem větším počtu.
3. Globální úpadek kvality karet. Začneme u Nvidia, u chybovosti G84 a G86 + všech jejich derivátů, dále pak bych ještě napsal o 8800 a 9800GT, které často mají nedostačující napájecí kaskádu která se přehřívá a způsobuje padání karty (stejný spoj jak má 8800GTS 512, ale jen z poloviny osazený). U ATI třeba nedostatečná napájecí kaskáda u Radeonu HD4870, která má při full load 150 Celsia a často nepřežije delší zátěž třeba furmarkem. Netýká se díky bohu HD4890, který si půjčil volteru z R600 a to je jiná třída.
Vše se zkrátka strašně tlačí na cenu. Já bych si za kvalitnější karty připlatil, ale nikdo je nenabízí.
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.XAN píše:GT200 není neúspěšný čip.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
-
- Certifikovaný fanATik
- Příspěvky: 889
- Registrován: ned pro 16, 2007 8:38 pm
- Bydliště: ne
- Kontaktovat uživatele:
To, že si na něm zahraješ, bohužel neurčuje, jak je produkt úspěšný pro výrobce. Možná tak ta nekompatibilita RV770 a P45 nVidii přihrála nějaké prodeje, ale jinak to s tím vůbec nesouvisí.XAN píše:GT200 není neúspěšný čip. Mam doma GT200B, ošahal jsem si dobře i moderní Radeony atd. a vím, že s GT200 si dnes zahraju nejiíp to je prostej fakt.
GT200 neměl být odpovědí na R600. R600 vyšla v květnu 2007 a to už byla o pár měsíců zpožděná, kdyby GT200 vyšla podle plánu, tak dříve než v listopadu by to nebylo.GT200 byl čip pro jinou dobu. Jak všichni víme vyvíjel se spolu s G80, ala jako G80 ale ještě rychlejší. Měl bejt odpovědí na R600, kdyby ovšem její architektura fungovala. Nakonec tak nebylo, a tak nebyl důvod jí vydat, prosté a jednoduché.
Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.1. Zpomalneí pokroku - od G80 žádná revoluce a ta je tu hrozivě od listopadu 2006. Pokud nová generace ala RV870 / GT300 nic tvrdého nepřinese, nebo nedej bože bude jedna strana mít v ruce nefunkční / polofunkční čip jako se ATI stalo s R600, bude to už dost zlé.
RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší. S tím CrossFire je problém, ale možná je to holt takový business model (pokud by vráželi víc do vývoje multi-GPU, už by se jim zase mohlo vyplatit udělat velké GPU, nebo by jim malé čipy kanibalizovaly větší s vyššími maržemi)To vše vedlo k rezignaci na high end, krokům zpět, aneb Rv770 je na tom technologicky hůře jak R600, nemá Ringbus, jak jsem někde četl méně efektivně skládá snímky atd.
Myslím si, že to nemůžeš takhle srovnávat. Za posledních několik let se GPU stále zvětšují a stále relativně ke své velikosti zlevňují. R300 měla plochu přes 200 mm2, byl to high-end. RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream. Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.no-X píše:Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů.
kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b)no-X píše:Pro nVidii je to největší fiasko od doby GeForce FX. Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí? To není rozdíl jednoho segmentu, ale 2-3 segmentů. Pro nVidii je to hodně velký problém - pár lidí stále tvrdí, že to nic není, že mají vyděláno dost peněz z doby G80... stačí se ale podívat na konkrétní čísla - peníze z doby G80 už nejsou dávno.XAN píše:GT200 není neúspěšný čip.
3Dfx Voodoo 4 4500 PCI (3300 Toshiba 6ns)
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
3Dfx Voodoo 4 4500 PCI (3700 Samsung 6ns)
AMD Opteron 800MHz/256kb PGA754 0147 [nov 2001]
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV710 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).Lukfi píše:R300 měla plochu přes 200 mm2, byl to high-end.
nVidia z těchto kolejí "vyjela" až v okamžiku, kdy důsledkem primárního vývoje architektury pro gigantické čipy (G80, GT200) a absencí řadičů s podporou rychlejších pamětí nebyla schopna vytvořit čip podobných rozměrů se 128bit sběrnicí, který by byl konkurenceschopný. Takže i do low-endu už se tlačí se >200mm² čipy a 256bit sběrnicí. Nemyslím, že jim to vyhovovalo, ale spíš jim nic jiného nezbývá...
Snad vyšší mainstream (midrange).Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.
Ano. A finanční výsledky můj názor podporovaly.Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.
Navíc X1950PRO stála jako novinka přes 6000, cena nijak výrazně neklesala a pod 5000 se dostala teprve až v roce 2007 (a to u levnější 256bit verze). ATi navíc defektní čipy prodávala prakticky za plnou cenu na X1650XT - cenový rozdíl byl minimální.
nVidia musí defektní G200/G200b prodávat jako GTX260 za cenu stejnou, jako ATi prodává čip o polovičních rozměrech. HD4870 s 250mm² čipem a 256bit sběrnicí se cenově vyvíjela prakticky stejně, jako zmíněná X1950PRO s 230mm² a 256bit sběrnicí, takže ATi s prodejními cenami vůči výrobním nákladům téměř nehnula. nVidii šly za tutéž dobu výrobní náklady výrazně nahoru (G200 byla 3x větší, než G70) a prodejní cena výrazně dolů (G200 prodává za cenu až 3x nižší, než G70).
Je jasné, že cena čipu ≠ cena karty, ale ATi a nVidia prodávají čipy a musejí je prodávat za takové ceny, aby po přičtení nákladů na zbytek karty nebyly vyšší, než konkurenční...
socket: To nebyly neúspěšné čipy. Šlo více-méně o OC edice karet vydané jen z marketingových účelů. nVidii to naopak pomohlo, finanční výsledky měla tehdy výborné.
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz
- DOC_ZENITH/XAN
- Senior member
- Příspěvky: 1922
- Registrován: stř říj 20, 2004 9:37 pm
- Bydliště: Praha - Hloubětín
S něčím souhlasím, s něčím ne:
Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.
7800GTX512 nemohla být neúspěch protože byla něco jako 6800Ultra extreme. Aneb prakticky se téměř nevyráběla. Tudiž nemohla prodělat. Navíc byla extra drahá = vysoká marže a její vývoj nestál nic, ala byl to stejnej model jak karta pod ní, jen lepší chladič, overvolt a overclock.
Klasická 6800Ultra byla hodně úspěšná, jednak to byla první SM3.0 karta, marketing stál celý na její straně, Nvidioti také. O čip NV40 všeobecně byl až do ukončení výroby enormní zájem, u já jsem jej měl. Byl to totiž poslední a i dost výkoný AGP čip (nativně) fungoval bez problémů na všech chipsetech, což se o kartách s můstky (hlavně ATI) říci nedá. Navíc na NV40 si lze dodnes zahrát.
Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění. Ty různé video konvertery v praktických testech a ne marketingových balastech ukázaly rozporuplné (slabý nárůst) až tragické (atefakty, horší kvalita videa) výsledky. Herní fyzika přes physx je stále neprosto nereálná (zachytávající se kamney uo různé oběkty, vítr protéká oběkty a ignoruje přitom zemskou gravitaci, atd. Physx bylo mrtvé už jak jej chtěla prosadit Ageia a je ještě více mrtvé teď s Nvidií, je to slepá větev, jejíž život ukončí nstup OpenCL. Ten, to ještě uvidíme, by se konečně mohl sát jistou revolucí, protože je to konečně standardizované rozhraní.Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.
Peníze bych v tom neviděl, možná na straně ATI, ale to jen protože jí vysává AMD, toto odkoupení pořád považuji za obrovskou katastrofu. Spíš strach z neúspěchu, uvidíme co Nvidia předvede s GT300.Asi nejsou peníze na to, aby mohla být každé dva roky nová architektura. A možná trochu ignoruješ, že mezitím se "vyloupla" herní fyzika a asistence GPU u negrafických úloh - což je taky pokrok.
Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída. Poukážu třeba u NV na G92 a GT200, jejíž přechod z 65 na 55nm neznamenal praticky nic ve spotřebě, teplotě, taktech, atd. Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.RV770 má namísto ring-busu hub a bloky shaderů mohou komunikovat jenom s vlastní přidruženou texturovací jednotkou, u R600 byl crossbar, takže mohly komunikovat všechny SIMDs se všemi TUs. Ale co je ve výsledku důležité je výkon na počet tranzistorů nebo na plochu, a v tom je RV770 lepší.
Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.
Ani nápad.kazdy nadava aky je 6800ultra/7800GTX (512) shit, myslim si ze tieto karty boli omnoho viac neuspesne ako G200(b)
7800GTX512 nemohla být neúspěch protože byla něco jako 6800Ultra extreme. Aneb prakticky se téměř nevyráběla. Tudiž nemohla prodělat. Navíc byla extra drahá = vysoká marže a její vývoj nestál nic, ala byl to stejnej model jak karta pod ní, jen lepší chladič, overvolt a overclock.
Klasická 6800Ultra byla hodně úspěšná, jednak to byla první SM3.0 karta, marketing stál celý na její straně, Nvidioti také. O čip NV40 všeobecně byl až do ukončení výroby enormní zájem, u já jsem jej měl. Byl to totiž poslední a i dost výkoný AGP čip (nativně) fungoval bez problémů na všech chipsetech, což se o kartách s můstky (hlavně ATI) říci nedá. Navíc na NV40 si lze dodnes zahrát.
-
- Certifikovaný fanATik
- Příspěvky: 889
- Registrován: ned pro 16, 2007 8:38 pm
- Bydliště: ne
- Kontaktovat uživatele:
A teď se podívej, co jsi napsal předtím:no-X píše:S R300 nebo staršími bych neporovnával, nemáme žádný ukazatel velikosti mainstreamových GPU. Rozměry mainstreamových čipů jsou známé až od další generace. 150 mm² (±) měl prakticky veškerý mainstream: RV410 (X700), RV530 (X1600), RV630 (HD2600), RV635 (HD3600), RV730 (HD4600), RV740 (HD4700), NV43 (GF6600), G73 (GF7600), G84 (GF8600).
Ta cena za "mainstreamový čip" už tak dva roky neplatí. RV630 ve verzi XT stála 4000. RV635, RV730, RV740 jsou všechno karty za 2000-2500. GT200 sice stojí tolik, co mainstream před dvěma třemi lety, ale určitě ne tolik, co 150mm2 čipy.no-X ve svém předchozím příspěvku píše:Nebo ti nepřipadá jako neúspěch, když 580mm² velký čip s 512bit sběrnicí prodávají za stejnou cenu, za kterou vždycky prodávali mainstreamový 150mm² čip se 128bit sběrnicí?
To samé ale dělá i ATI. Tohle je prostě současný trend. Čipy se zvětšují, ale ceny zůstávají. G80 nebo GT200 nebyly při vydání dražší než R580, přestože jsou větší.nVidia z těchto kolejí "vyjela" až v okamžiku, kdy důsledkem primárního vývoje architektury pro gigantické čipy (G80, GT200) a absencí řadičů s podporou rychlejších pamětí nebyla schopna vytvořit čip podobných rozměrů se 128bit sběrnicí, který by byl konkurenceschopný. Takže i do low-endu už se tlačí se >200mm² čipy a 256bit sběrnicí. Nemyslím, že jim to vyhovovalo, ale spíš jim nic jiného nezbývá...
Jo, původně, pak během roku 2007 už to sklouzlo mezi 3-4 tisíce Kč, kde byly G84 a RV630.Snad vyšší mainstream (midrange).Lukfi píše:RV570 měla podobnou plochu a 256bitovou sběrnici, ale už to byl nižší mainstream.
Ale nVidia může být ve ztrátě i z jiných důvodů než kvůli GT200. Například se jim smršťuje trh pro čipsety.Ano. A finanční výsledky můj názor podporovaly.Lukfi píše:Taky se tehdy říkalo, jak na tom ATI musí prodělávat. A ty sám jsi to vyvracel.
Jediný problém je to, že nVidia musí velkým čipem konkurovat menšímu. Ale GPU se obecně zvětšují. Akorát G71, kterou jsi asi měl na mysli místo G70, se vymyká.nVidia musí defektní G200/G200b prodávat jako GTX260 za cenu stejnou, jako ATi prodává čip o polovičních rozměrech. HD4870 s 250mm² čipem a 256bit sběrnicí se cenově vyvíjela prakticky stejně, jako zmíněná X1950PRO s 230mm² a 256bit sběrnicí, takže ATi s prodejními cenami vůči výrobním nákladům téměř nehnula. nVidii šly za tutéž dobu výrobní náklady výrazně nahoru (G200 byla 3x větší, než G70) a prodejní cena výrazně dolů (G200 prodává za cenu až 3x nižší, než G70).
NV40 ~ 300 mm2
G70 ~ 330 mm2
G80 ~ 460 mm2
GT200 ~ 576 mm2
R420 ~ 280 mm2
R520 ~ 290 mm2
R580 ~ 350 mm2
R600 ~ 420 mm2
V historii bylo několik produktů, které byly očividně výrobně dražší, než co měla konkurence (GeForce 6800 GT vs. Radeon X800 XL, Radeon X1900 XT/X vs. GeForce 7900 GTX) a stejně se prodávaly. Takže si myslím, že menší plocha čipu je výhoda, ale zase ne taková, aby někoho položilo prodávat za stejné peníze větší čip.Je jasné, že cena čipu ≠ cena karty, ale ATi a nVidia prodávají čipy a musejí je prodávat za takové ceny, aby po přičtení nákladů na zbytek karty nebyly vyšší, než konkurenční...
Tož samozřejmě, tam je víc faktorů výsledné ceny. Například samozřejmě nemá smysl přecházet na novější výrobní postup, pokud je zmetkovitost tak vysoká, že na starším mám z jednoho waferu více funkčních čipů (nebo méně, ale s tím, že wafer je levnější). Obecně by se ale nikdo na novější postup nehnal, kdyby to nebylo výhodné i když se nezlepší charakteristiky, tak snížení plochy je pozitivní. Možná nVidia čekala, až bude 55nm dostatečně vychytaný a pak začla vyrábět GT200b - do té doby by měla více funkčních čipů z 65nm waferů.XAN píše:Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná. Jde tu také o vyladěnost procesu, zmetkovost čipů, která je u sarěího procesu logicky menší. Dále pak také neustále se hrnutí za lepším výrobním procesem bez ohledu na vylepšení stávajícího. Jak daleko to třeba AMD dotáhlo od počátku 180nm až do konce 180nm? Kolikanásobně se tam zvedla frekvence a vkon? U GPU to bylo obdobně, ale poslední dobou je to bída.
Kdo ví, jak to je. Možná by stačilo zamakat na spotřebě podobně jako to udělala nVidia a velký čip by byl možný. Ale já si spíš myslím, že ATI nechce ztrácet čas vývojem takového produktu, který moc velkou část trhu neosloví. Jedním z úkolů high-endu je vytvářet haló efekt a to se daří i X2 kartám, i když pro mnoho lidí jsou v praxi nepoužitelné.Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat. I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá. Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.
- no-X
- Administrátor
- Příspěvky: 6912
- Registrován: stř dub 28, 2004 9:02 am
- Bydliště: Č. Budějovice
- Kontaktovat uživatele:
Ale tady nejde o GP-GPU pro řadové uživatele, ale pro profi segment. Tam je podpora na zcela jiné úrovni a pro oba výrobce je tenhle segment důležitý, protože profi karty stojí výrazně víc, ačkoli náklady na jejich výrobu jsou jen mírně vyšší. Pokud hráči nejsou ochotni platit tolik jako dříve, je logické, že oba výrobci hledají jiné odvětví, ze kterého by nějaké peníze mohli dostat.XAN píše:Neberu to jako pokrok ale krok zpět, nebo respektive do prázdna. Počítat flodding home u ATI šlo od dob R520. Tzn zde se nic nemění.
Utilitky pro video jsou jen marketing, který má ukázat na to, že tam něco zlepšeného je, ale pro řadové uživatele to zatím přínos nemá.
PhysX je marketing kompletně, v tom souhlasím - jediné, co nVidia chce, jsou testy PhysX her v recenzích grafických karet, kde sestavy s konkurenčním GPU musejí PhysX kód zpracovávat softwarově, přičemž kód pro softwarové zpracování přes CPU je záměrně silně zmršený, aby to běhalo opravdu nepoužitelně.
To imho není problém API, ale problém vývojářů. Stejně, jako se s D3D nebo OpenGL vytvořit dobrá, ale i naprosto nereálná 3D grafika, tak lze s každým fyzikálným rozhraním vytvořit reálnou in nereálnou fyziku. OpenCL nebude akcelerovat fyziku, bude sloužit jen jako mezivrstva mezi Havokem a GPU (z hlediska ATi). nVidia zatím asi bude dál tlačit PhysX, je to to jediné, co momentálně má. Ale i ten umře, nebo vůči němu budou lidé lhostejní. Stejně, jako to šílenství kolem TnL, SM3.0, HDR, SLI (či později Q-SLI či 3-SLI), skalárních SPs...XAN píše:Herní fyzika přes physx je stále neprosto nereálná
Plocha čipu je skutečně primární. Není důležitá jen proto, že s nižší plochou se z jednoho wafferu vyrobí více čipů, ale hlavně z důvodu defektů. Pokud máš např. v průměru na 600 mm² jeden defekt, tak při výrobě 150mm² čipů budeš mít poškozených 25% čipů. Při výrobě 600mm² čipů budou poškozené prakticky všechny (samozřejmě je to složitější, ale teď mi jde o základní souvislost zmetkovosti s plochou). Takže výrobní náklady s plochou čipu nerostou lineárně, ale dokonce exponenciálně.Chi se vrátit k tomu počet tranzistorů na plochu a nebo vůbec plocha čipu jako taková. Tento údaj a všeobecné představa že čím menší čip = automaticky menší náklady, je dle mého názoru zcela mylná.
Proto výrobci na novější procesy přecházejí jak nejdříve mohou. Jak jsi sám uvedl, přechod z 65 na 55nm neznamenal příliš výrazné snížení spotřeby, ale znamenal vyšší výtěžnost (více čipů na waffer, výrazně více funkčních čipů na waffer). Trochu problém je se 40nm, protože nVidia není se současnou podobou procesu dosáhnout nižších nákladů na čip oproti 55nm, pouze nižší spotřeby. To je důvod, proč na 40nm vyrábí zatím jen mobilní čipy.
Podobné problémy jsou obvykle řešitelné úpravou metal layers, není třeba dokonce ani respin. Spíš to vidím tak, že problém vyřešili zároveň s úpravami čipu na 55nm výrobu.Potřebovala to akorát GT200, která potřebovala další rtevizi, protože původní GT200 měla určité % vadných čipů kde docházelo k jakémusi (nevím to přesně) prostřelování napětí mezi částmi jádra (něco podobného řešila ATI před vydáním R520), což způsobovalo enormní zahřívání a destrukci čipu, pár karet asi (20% GTX280 co se dostaly do prodeje) tímto trpělo. U 55nm verze GT200 už se to neděje.
Tady toho mícháš víc dohromady. V první řadě - spotřeba RV770 není ani v nejmenším blízká spotřebě G200. Vysokou spotřebu mají rychlé GDDR5. Pokud budeš srovnávat karty s GDDR3, tak 55nm RV770 má spotřebu o 50W nižší, než 55nm G200.Dále pak plocha čipu jako taková. Já si myslím, že ATI by moc ráda dělala GPU o velikosti GT200, klidně se svou současnou architekturou, protstě jen více výkonu, ale není to momentálně možná. I když je RV770 menší, tak topí a dost často i žere více než velká GT200. Rv770 o velikosti GT200 by nešel provozovat.
Druhá věc je, že zaměňuješ příčinu a následek. Jednou z výhod menších čipů je, že není spotřebu třeba řešit, protože neleze na takové úrovně, aby se jí vyplácelo řešit. Nikoli že by ATi nemohla vyrobit větší čip, protože by moc žral. ATi by klidně větší čipy dělat mohla, ale musela by řešit o 1 problém navíc.
Další věc je, že pokud by ATi navrhla větší čip, nemusela by spotřeba jít nahoru vůbec, protože pro dosažení stejného výkonu by stačila nižší frekvence (nVidia taky u větších čipů netaktuje základ na 800MHz, jako ATi). Spotřeba neroste lineárně s frekvencí, takže snížení taktovací frekvence o 150MHz by imho mělo výraznější vliv, než 100 mm² navíc. Větší čip má také tu výhodu, že teplo odevzdává chladiči větší plochou, takže i výsledná teplota by byla nižší. Jenže v současné situaci nemá smysl, aby kvůli pár wattům ATi tak brutálně navýšila rozměr čipu. Tuhle cestu zvolila nVidia a nevyplatilo se jí to.
Výrobní cenu to rozhodně zvedá, hlavně to taky stálo nějaké peníze na vývoji, ale vyplatí se to z několika důvodů:I u HD4890 ATI plýtvá křemíkem na okraje čipu aby se lépě a rovnoměrněji rozváděla teplota, a evidentně jim toto uměé zvětšení plochy jádra vrásky nedělá, takže jim to výrobní cenu tolik nezvedá.
1. ATi na rozdíl od nVidie má v čipech redundantní set SPs, takže i když se zvýší pravděpodobnost výskytu defektu na čip, je reálný nárůst chybovosti cca jen poloviční oproti teoretickému (je zhruba 50% šance, že defekt zasáhne obnovitelnou část čipu).
2. Plocha čipu je o 10-12% větší, výkon je také o 10-12% vyšší (tzn. poměr výrobní náklady/výkon se možná ještě zlepšily s přihlédnutím k tomu, že paměti mají HD4870 i HD4890 stejné), ale prodejní cena karty je o 20% vyšší. Tzn. pro ATi je to výhodnější produkt.
Nemůžeš srovnávat navýšení plochy čipu u produktu, kde většímu čipu odpovídá i větší výkon a vyšší prodejní cena, oproti produktu, kde je sice čip větší, ale výkon to nepřináší téměř žádný.
To je pravda, ovšem nesmíš zapomínat, že spotřeba v klidu je nesrovnatelně níž, než u R600, takže vysoká čísla platí jen pro čas strávený ve 3D.Spíš GT200 a nyní HD4890 dorovnaly spotřebu HD2900XT. Nad tuto hranici, bych už nerad chodil.
Je jen otázka, jestli ATi s nVidií budou čekat, zda se kvality 40nm produkce zlepší a vydají až produkty s nižší spotřebou, nebo proces využijí hned, vydají žravější produkty a spotřebu sníží postupně časem...
If you're doing rotated grid SSAA (call it sparse grid if you wish but most often your samples will be in the "rotated" position) : then this AA is better than sex. ---Blazkowicz