Stránka 4 z 5

Napsal: ned bře 28, 2010 11:52 am
od no-X
Ren píše:Ja to teda nijak nesleduju takze nejsem v obraze, ale jak je tohle mozne? Jak muze pripojeni druheho monitoru zvednout spotrebu o 80W, obzvlast v idle?
Ve 2D normálně jádro GF100 běží na 50HMz, paměti na 100MHz. Se dvěma LCD je obecně problém ten, že nemůžeš měnit časování pamětí. S jedním LCD to jde - snadno to sesynchronizuješ s v-sync monitoru a není problém. Jenže se dvěma LCD máš dva rozdílné v-sync a není tudíž možné paměti synchronizovat s oběma, takže musí běžet na vyšší frekvenci. A s tím musí korespondovat i frekvence jádra (rozdíl ve frekvencích nemůže být extrémní, zřejmě kvůli řadiči). A když si karta v klidu při 50/100MHz vezme 50W, tak není divu, že při 400/900 žere přes 100W...
Ren píše:Jinak rozhodne souhlasim s Bobem, nV se urcite nedari tak, jak by si treba prala, ale uvedomte si, ze nikdo nema na to, hodnotit rozhodnuti firem jeji velikosti. Nemame nejmensi sanci vhledu do pozadi jakychkoli rozhodnuti, a kdyz se casem ukaze nejaky produkt neuspesny, nikdy se nemusime dozvedet, co se stalo a kam firma puvodne mirila,...
Kdyby tam bylo "nemůžeme", tak to beru, ale my můžeme a víme. GF100 původně neměla obsahovat hardwarový teselátor a jeho funkce měla být emulovaná přes unifikované jádro. K mému překvapení to někdo z nVidie nedávno potvrdil i oficiálně. Nakonec se rozhodli implementovat vlastní teselátor do každého výpočetního bloku - zřejmě chtěli ATi porazit na jejím vlastním písečku - nicméně už nepočítali s tím, že TSMC samo nevyřeší problémy s výrobou a řešení dalších revizí čipu je bude stát skoro půl roku a ještě navíc bude neúspěšné.

Tohle osobně považuju za machrování, které se jim nevyplatilo. ATi naproti tomu - jakmile zjistila, že jsou s procesem problémy - věnovala veškeré úsilí přípravě čipu na méně vydařený výrobní proces (zmenšení čipu pro zvýšení výtěžnosti, odstranění všech nepotřebných částí a duplikaci všech vias v čipu pro snížení leakage a zvýšení stability). Výsledkem bylo včasné vydání a skvělé provozní vlastnosti, na kterých není sebemenším způsobem znát, že je čip vyrobený na nejhorším procesu, jaký TSMC v novodobé historii výroby herních akcelerátorů vypotilo.

Napsal: ned bře 28, 2010 2:44 pm
od -HoNY-
no-X píše:
Ren píše:Ja to teda nijak nesleduju takze nejsem v obraze, ale jak je tohle mozne? Jak muze pripojeni druheho monitoru zvednout spotrebu o 80W, obzvlast v idle?
Ve 2D normálně jádro GF100 běží na 50HMz, paměti na 100MHz. Se dvěma LCD je obecně problém ten, že nemůžeš měnit časování pamětí. S jedním LCD to jde - snadno to sesynchronizuješ s v-sync monitoru a není problém. Jenže se dvěma LCD máš dva rozdílné v-sync a není tudíž možné paměti synchronizovat s oběma, takže musí běžet na vyšší frekvenci. A s tím musí korespondovat i frekvence jádra (rozdíl ve frekvencích nemůže být extrémní, zřejmě kvůli řadiči). A když si karta v klidu při 50/100MHz vezme 50W, tak není divu, že při 400/900 žere přes 100W...
Jakým způsobem to podle tebe řeší Matrox, které má údajně synchronizované vstupy? Zatím to namohu nijak ověřit, protože čekám, jak mi dorazí k P650 DMS-59 -> 2× DVI-D kabel.

Zajímavé vysvětlení, proč běží karta se dvěma monitory na vyšších taktech. Celkově je tato věc špatně odladěná.

Druhá otázka trošku mimo, ale stejně se zeptám. Jak je možné, že karty s GF100 nemají DisplayPort?

Napsal: ned bře 28, 2010 3:33 pm
od no-X
netuším, jak to řeší matrox, ani ho už nesleduju... poslední roky stejně z většinou jedou na marketing a propagujou i fíčury, který jsou už leta u ati a nvidia samozřejmostí, což mě moc neoslovuje :-)

Napsal: ned bře 28, 2010 4:13 pm
od DOC_ZENITH/XAN
Karty Maxtoru hlavně pokud vim nemaj žádný power saving funkce, v podstatě jedou furt stejně, takže se tam toto řešit nemusí.

Jinak k tomu podtaktování v 2D:

Když jsem si na HD2900XT upravil bios tak aby v 2D jela na 100/200 a 0,8v, tak žádnej problém s více monitory neměla. Ani GT200 když jsem jí forcnul stejně nízké takty, i aero a HD akcelerace jely ok... takže... kde je ten zakopanej pes že se to tak výrobci bojej nastavit defaultně?


To Bob:

Ona 2900 měla hlavně špatně nastavenou regulaci, dnes by byla tichá protože by se nikdo nad teplotou nepozastavoval. Tehdy bylo pravidlo čím chladnější tím lepší, dnes jde hlavně o hluk i když to má znamenat větší teploty.

Kdyby R600 měla chladič jak má Fermi.... ani by jsi o ní nevěděl. :roll:

Napsal: stř bře 31, 2010 5:16 pm
od no-X

Napsal: pon dub 26, 2010 5:30 pm
od DOC_ZENITH/XAN
Tak konečně jsem majitelem GTX480 a můžu poreferovat co a jak. A co je dle mého názoru pravda a fikce.

- Začneme z lehka: Výkon - Výkon mě docela pozitivně překvapil, je to větší boost než byl z 8800GT na GTX285. A subjektivě větší boost než byl z GTX285 na 5870. Crysis Warhead jde plynule při FSAA16x, takže propady v FSAA se opravdu zmenšily. Zatim vše co jsem zkoušel jelo tak dobře že ňák hledám slabiny. Ale na Metro 2033 půjdu až dnes...

- Drivery - Na první jsou ok, nic mi nikde neartefaktilo ani nepadalo. Jen chybí GPU reset rystém když to člověk přežene s OC, musí prostě hard restart. Dříve to u NV bylo blik - ovladač přestal pracovat a byl obnoven.
Prosnulej physx v metru jsem ale ještě nezkoušel.

- Kvalita obrazu a filteringu zůstala zhruba stejná, tudiž o něco jepší jak u RV8xx. Co se ale rapidně zlepšílo je kvalita transparency AA. Už se dá i nastavovat preciznost a celkově to i vypadá líp. Rozdíly ve výkonu mezi 2x supersampling a 8x supersmapling však velké nejsou. Samotné zapnutí této funkce na FPS cejtit je. Warhead 1920x1080 FSAA 8x v údolí kde jsem to měřil 65fps. S 8x TRAA k tomu 40fps.

- Přínost 32xCSAA hodnotim jako nulovej. Od 8x AA vejš už stejně nevidim rozdíly.

- Kvalita analogového výstupu: Perfektní, naprosto perfektní, lepší než u mojeho starýho Matrixu, skoro se vyrovnávající Wildcatu 800. Ačkoliv moje karta je Gainward ( výstupy obvykle ohavný ) tak je to prostě super.

- Hluk: Zděšení z recenzí se nekonalo, tak leda ve Furmarku, ale R600 byla furt víc hlučná. V normálních hrách to bylo asi jako s GTX280. Zde se to krásně otáčí. Furmark jenž loaduje shadery na maximum na GT200 nedal top teploty, u G100 ale naopak ten dá. A v hrách víc idlujou tam jsou zatim bottleneck TMU, na kterejch Nvidia fakt ušetřila tranzistory. Kdyby jich karta měla 120 bylo by to vzhledem k shader power ideální. Nicméně co se hluku týče, tak je to jak později uvedu dosti kusová věc.

- OC: Můj kus s default chladičem jde vytlačit na 1700 shader 850 core a 4400 paměť. Nicméně zde bych to trochu více rozvedl. G100 jelikož má katastrofální výtěžnost, tak NV používá jádra co by byly jinak šrotový nebo do horších modelů. Tudiž rozpětí voltáže, spotřeby a hluku se dosti liší kus od kusu a karta od karty. Moje karta má default 1,015V. Ale jsou i karty co maj 1,075V. A v tom je právě zakopanej kus, moje karta je lepší kousek proto má provozní vlastnosti celkem OK. A aby jste se nedivili rozdíl 0,05V je dost znát. Navíc jsem u svý karty oběvil celkem velkou rezervu i v defaultní voltáži. Na default taktech je karta stable s 0,950V, cimž teplota při hraní neřesáhne 88 při 45% fanu a hluku menšim než měla referenční 55nm GTX260. Výše zmíněného OC jsem pak dosáhl při 1,1v. Další navyšování už pak nic nepřinášelo, tam už to nedávalo chlazení. A krom metra to snad ani tak provozovat nebudu, neni to nikde třeba a výkonu je habaděj. Tudiž GF100 v podstatě.... je velká loterie co koupíte, může to bejt tajfun na defaultu nebo přijatelnej provoz pro high end kartu.

- Jen jedna poznámka - karta neni stable ani při velkem under OC pod 0,9V. Vzhledem k tomu že pro GTX480 takty jsem potřeboval jen 0,95V, pro GTX470 takty ale 0,925V což neni moc pokles. Pod 0,9V ale karta nebyla stable nikdy ani při velkym podtaktování. To by možná vysvětlovalo poměrně velkou 2D spotřebu, protože karta prostě malou voltáž nerada, i když se hodně snížej takty. Takže dle mého názoru budou mít všechny Fermi v 2D oněch 0,9V.

- Co se výkonu při teselaci týče, vynikající jak se čekalo, v geometry extreme situacích nelimitovanejch ničim jinym je to trojnásobek výkonu proti HD5870.

___________________


Vzal jsem si předvčírem domu i Radeona 5870 abych si to srovnal a rozhodl se. Taky jsem srovnával toho radeona teď a jakej byl při launchi. Tentokrát jsem si vzal Asuse, předtim to byl Gigabyte, ale jinak referenční karty. Asuse jsem vzal abych si potvrdil jednu doměnku, a potvrdila se. Referenční nebo ne, kvalita součástek dosti záleží od výrobce. Gigabyte měj naprosto humusní analogovej výstup, ale tenhle Asus ho měl ok. RV870 asi taky prosšlo svym a dnešní kousky jsou lepší než ty první. Gigabyte řval a topil mnohem více než tenhle Asus teď. Na defaultu to bylo na high end kartu velice příjemně tiché. Avšak OC jádra se moc nepohlo. Ani s monstróznim overvoltem jsem se na 1Ghz nedostal, opět jsem ztroskotal na 950mhz. Vzhledem k tomu, že 12% navýšení frekvence ( a voltáž na 1,3 ) zde znamenalo tak 40% navýšení spotřeby a hluk větší jak GTX480 jsem to pak radši nechal bejt.

Co se driverů týče, ušly svojí cestu. Když jsem Radeona 5870 testoval poprvé řekl jsem si hmm, no ok, o 1/3 lepší než GTX285 a lepší provozní vlastnosti, ale žádná revoluce to neni. Nicméně teď už jsem tam cejtil víc, tak aspoň 2/3. V Crysis jsem měl velice podobnej pocit plynulosti jak s GTX480, o chlopek menší, ale jen o málo, o tak málo že na tuhle hru bych zákazníkovi dal radeona kvůli jeho defaultním provozním vlastnostem. Ale ve schopnostech předvést plynuou hru v 1920x1080 obě karty obstály. Do extrémů jsem nemohl, protože TRAA na Radeonu opět nefungovalo. Co se Supersamplingu týče, zaznamenán pokrok, v Unreal 2 enginech už nebere 99% výkonu ale jen 90%. Takže už se to i dá hrát občas.

Jinak škoda že TRAA furt nefunguje, ale ATI asi nemá zájem aby fungovalo.

Co se video playbacku týče (hw akcelerace mě teď nebere, neni třeba a je problémová) tak jsou si karty rovný, vyhrála by spíš ATI, protože v Catalystech nabízí více nastavení a ladění barev na toto téma.

Bug s komplet nefunkčnim AF filtrem co u jednich driverů postihl i NV a s ATI se táhnul 4 měsíce už je naštěstí vyřešen. Nicméně u G100 jsem jej opět v některejch hrách našel. Se stejnym driverem na GT200 nebyl, tak jsem do toho začal trochu vrtat a zjistil jsem co jej alespoň u NV způsobuje. Drivery totiž samy detekujou nainstalované známé hry a když ňákou najdou, nastavěj pro profil u ní defaultně to co je v driverech nastaveno v globalu. To je správně. Bug však nastává poku je hra v PC ale neni nainstalovaná (spouští se klasicky přes exe a nepotřebuje vstupy v registrech). V tu chvíli driver hru nedetekuje a nepřiřadí jejímu profilu globální nastavení. Jakmile ale spustíte to exe, driver přepne global profil na profil té hry - nicméně ten je stále na defaultu čili AF0x. Tudiž co musíte udělat je v seznamu her jak je v driverech NV ručně najít tu vaší, nastavit to tam přímo pro ní i když to řve že tem neni. A pak oala vše funguje jak má. Stupidní bug.


Jinak z porovnání karet si mě více získala GF100, má lepší příslib do budoucna, lepší kvalitu obrazu v hrách. A ty 3 tisíce navíc mě už nazabijou, kdyby ano vezmu 470 a ocnu ji na výkon 480 (což s novym afterburnerem kterej umí měnit voltáž i tam neni problém), nicméně já mýřim ještě někam vejš, jen čekám na chladič a tam by okuchaná napájecí kaskáda 470tky asi neobstála. Navíc má 480 je lepší kousek a po odladění voltáže ani neni niak extra hlučná. Nicméně pánbůh s těmi co chytnou horší kus.

Shrnul bych to tak že RV870 je první GPU co umí DX11 kód, ale G100 je první DX11 GPU.

A starej matrix půjde na Aukro, sloužil dobře.

Jinak co si myslim že je největší bota co NV udělala? Shader cache. Tahle věc sice zvedá výkon v CGPU, hlavně výkon v OpenCL je u NV opravdu skvělej. Ale... problém je že je to velká a rychlá paměť a cache paměť ukrutně žere a topí. U CPU je to to samé. Cache sežere víc proudu a vyprodukuje více tepla než samotné jádro. (akoro jsem pro nepočítat tranzistory cache do počtu tranzistorů čipu, dost to pak zkresluje). ATI takovou cache vůbec nepoužívá, protože v hrách na ní moc nesejde. Kdyby G100 jí neměla nebo měla jen tak jako G80/GT200, tak by žrala o 100W míň.

Napsal: pon dub 26, 2010 7:00 pm
od no-X
DOC_ZENITH/XAN píše:Shrnul bych to tak že RV870 je první GPU co umí DX11 kód, ale G100 je první DX11 GPU.
To je trochu předčasný závěr, ne? Když vynecháš testy teselace napsané nebo sponzorované nVidií, zůstane ti řada DX11 testů, z nichž mnohé ukazují opak:

Obrázek

Obrázek

Obrázek

Obrázek

Obrázek

Obrázek
DOC_ZENITH/XAN píše:Jinak co si myslim že je největší bota co NV udělala? Shader cache. Tahle věc sice zvedá výkon v CGPU, hlavně výkon v OpenCL je u NV opravdu skvělej. Ale... problém je že je to velká a rychlá paměť a cache paměť ukrutně žere a topí. U CPU je to to samé. Cache sežere víc proudu a vyprodukuje více tepla než samotné jádro. (akoro jsem pro nepočítat tranzistory cache do počtu tranzistorů čipu, dost to pak zkresluje). ATI takovou cache vůbec nepoužívá, protože v hrách na ní moc nesejde. Kdyby G100 jí neměla nebo měla jen tak jako G80/GT200, tak by žrala o 100W míň.
Proč si to s tou spotřebou myslíš?

Jinak nerad bych kecal z cesty, dá se to ověřit, ale nechce se mi to teď hledat, ale čipy ATi mají přes 1MB různých cache, takže se mi nechce věřit, že by to najednou měl být problém . Kdyby to tak bylo, určitě by s tím nVidia počítala a čip navrhla tak, aby se pro běžné použití cache, která pro 3D nepřináší nic, deaktivovala. Problém GF100 je spíš v tom, že návrh čipu nebyl uzpůsoben 40nm procesu TSMC (problematické vias).

Napsal: pon dub 26, 2010 8:15 pm
od Lukfi
XAN píše:Ale... problém je že je to velká a rychlá paměť a cache paměť ukrutně žere a topí. U CPU je to to samé. Cache sežere víc proudu a vyprodukuje více tepla než samotné jádro.
Pak nám jistě dokážeš vysvětlit, proč například Pentia M měly běžně 1-2 MB cache v době, kdy standard v desktopu byl 512 kB a stejně tak i mobilní varianty AMD K8 měly větší cache než jejich desktopové protějšky. Kvůli tomu, že by cache tolik žrala, to totiž nebylo.

Napsal: pon dub 26, 2010 8:35 pm
od DOC_ZENITH/XAN
Lukfi píše:
XAN píše:Ale... problém je že je to velká a rychlá paměť a cache paměť ukrutně žere a topí. U CPU je to to samé. Cache sežere víc proudu a vyprodukuje více tepla než samotné jádro.
Pak nám jistě dokážeš vysvětlit, proč například Pentia M měly běžně 1-2 MB cache v době, kdy standard v desktopu byl 512 kB a stejně tak i mobilní varianty AMD K8 měly větší cache než jejich desktopové protějšky. Kvůli tomu, že by cache tolik žrala, to totiž nebylo.
Protože velká cache dokáže lépe kompenzovat nevýhody pomalé FSB. A každé architektuře svědčí jiná cache.

V době PentiaM (aka přepracovaná Pentium 3) byla v dektopu P4 Netburst kterej používá cache úplně jinak, tam je hlavně k memory prefetchi. Kdežto když se ta samá architektura dostala do desktopu (Core2duo) tak tam měla až 4MB. A dále pak v NTB ( případ AMD) jsou CPU často méně taktované, když dáš menší frekvenci a voltáž, spotřeba cache rapidně klesá, přesně toho jsem si všimnul o G100 címž si tak trochu potvrzuji vlastní teorii.


To No-X, ta sandra atd. Jakožto syntetickej výsledek má stejnou vypovídací hodnotu jako benchmarky samotné NV. Tohle nemůžeme předem rozříznout dokud nebude venku ňáká full DX11 hra. V metru (asi nejhůře optimalizovaná hra dneška) si NV vede líp, ale... ne o moc. A co se teoretického výpočetního výkonu týče tak je na tom ATI lépe takže syntetika by tak i mohla vyjít, ale v OpenCL teda zatim furt suxx. Zase teselace je na straně NV.


A já bych v hrách v budoucnu raději viděl více detailní geometrie než více shaderů. A jak jsem řekl, ještě mě pár her čeká, nicméně já nejsem člověk toho typu že bych měl v PC 4+´let starej HW a závěry dělal podle toho co kde kdy kdo napsal v recenzi nebo řekl. Já jsem ten typ člověka co prakticky všechny karty měl, a podle vlastní zkušenosti soudim.

Napsal: pon dub 26, 2010 8:54 pm
od Lukfi
NetBurst byl právěže na cache hladovější než P-6.
Ano přesně tak: máš-li na výběr mezi nižším taktem s větší cache a vyšším taktem a deaktivací cache, lepší výkon/watt vyjde s první variantou.

Napsal: pon dub 26, 2010 9:13 pm
od no-X
DOC_ZENITH/XAN píše:To No-X, ta sandra atd.
To není sandra, ale testy nových features DX11. Proč si z nich vybírat pouze teselaci a to ještě v demech nVidie? Protože je to jediná DX11 fíčura, ve které se nVidii daří? No super, je tu pět jiných, ve kterých se (a v nezávislém testu) lépe daří ATi. Pokud máme oslavovat, že nVidia vydala čip, který je v jednom feature-testu rychlejší, než 7 měsíců starý čip ATi, tak proč bychom nemohli počkat ještě dalších 6 měsíců na R9xx? :-)

Napsal: pon dub 26, 2010 9:40 pm
od DOC_ZENITH/XAN
Ale já nevylučuji že R9xx nekoupim hned při launchi :roll: Jen aby tu byla co nejdřív... Vsaď se že jí budu mít v kompu hned jak jí dodavatelé dovezou.

Pokud to bude GPU co rozrazí vše co do té doby bude na trhu tak ok. G100 u mě skončila vlastně na pous, mohl jsem se rozhodnout jestli si jí nechám nebo jí pošlu do tý fronty lidí na ní čekajících, a rozhodl jsem si jí nechat, protože má hlavně po OC docela power a na Rv870 mam horší filtering a nefunkční TRAA. To jsou 2 malý chybičky, dalo by se i říci driver bugy, který kdyby neexistovaly..... ale kdyby je kdyby, a realita jaká je.

Nicméně žádnej strach, já jsem jeden, lidem co budu skládat kompy tak tam budu rvát 5850, alespoŇ velice pravděpodobně. Protože Fermi nebude dostupná, dle mého názoru nikdy a pro ty co netaktují budou ty nereferenční ultra cheap 5850 od Sapphiru, atd ideální volba. Pro ty co taktujou zas referenční 5850. Ta, společně s GTX470 má asi nejlepší poměr základ / performace po OC. Naopak 5870 se moc nevyplácí.

Napsal: pon dub 26, 2010 10:37 pm
od socket
Lukfi píše:AMD K8 měly větší cache než jejich desktopové protějšky. Kvůli tomu, že by cache tolik žrala, to totiž nebylo.
praveze mobilne CPU mali mensiu cache, zatial co desktopove verzie mali 1MB (90nm potom zredukovali na 512kb), tak mobilne clawhammery mali velku cast cache deaktivovanu, vacsinou mali athlony64-M 256/512kb L2.

Napsal: úte dub 27, 2010 1:07 am
od DOC_ZENITH/XAN
Popravdě o mobilní CPU AMD jsem se nikdy moc nestaral. Zatím to totiž oproti Intelu byl vždy naprostej šrot. (pominu li mobilní Netbursty).

S myšlenkou že si dnes půjdu koupit notebook s ňákym Turionem X2 2,2ghz a on bude mít menší výkon než jsem měl doma v roce 2005 mě mrazí. Vždyť ta věc nepřehraje SW cestou ani jeden 1080I H264 záznam. Core2 duo 2,5ghz dá 2 najednou. Je tam obrovská propast. AMD hodně zaspalo s tou nízko taktovanou K8 v mobile CPU, měli tam rvát K10 45nm jen to šlo... ale ne.....

Napsal: úte dub 27, 2010 9:41 am
od no-X
Proč by to mělo přehrát HD vido softwarově, když prakticky všechny moderní grafiky to zvládají hardwarově akcelerovat?

Napsal: úte dub 27, 2010 11:57 am
od DOC_ZENITH/XAN
Protože zdaleka ne všechny formáty jdou přehrát. Když máš ATI grafiku tak stačí aby jsi tam měl větší datovej tok, nebo snímkovou frekvenci než je norma pro Blu-ray a už to neakceleruje. U NV to taky nikdy neni dokonalý, dokud to nebude fungovat naprosto na všem a bez problémů ( ala kodek bude psanej pro GPU, třeba přes OpenCL, ne aby se ta akcelerace ňák jaksi nabourávala do stávajícího procesu jak se to děje nyní) tak to neberu jako použitelnou věc, protože videa co mam na mysli jsou hlavně různý MKV ripy atd. Oficiální ty to akceleruje.... jo.

Ale nejsou tu taky jen soubory. Co flash? Vždyť se tam trhá i spousta webů, natož tam něco v tom přehrávat. Funguje akcelerace ve flashi? Ano, tak leda na youtube. Třeba na takovejch Gametrailers to nedá ani video v 720p protože na stránce je ještě tuna dalších flasovejch reklam, ve win je to fakt ryhclý jak ta K8 2,2ghz, je to prostě 5 let za opicema ty mobilní AMD CPU.

Napsal: úte dub 27, 2010 12:50 pm
od no-X
se současnými ovladači zvládají HL 5.1 s 16 frames i integrované radeony minulé generace

http://www.extrahardware.cz/forum/viewt ... start=1900

Napsal: úte dub 27, 2010 1:21 pm
od DOC_ZENITH/XAN
Dobrá, odzkouším, hned zejtra pokud v práci nebude extra rušno. Je to inu jedna z věcí co jednou za určitou dobu testuju jakej nastal pokrok. To samé dělaám třeba s SLI, každej rok stejnou dobou ( bude za měsíc ). Zatim jsem bohužel vždey došel k závěru že s jednou kartou se hraje líp.



Ad k Metru: Tak už jsem hrál to Metro, a je to stable, žádné problémy s physx nenastaly. 1920x1080 vše na max DX11 + teselace naprostá plynulost. Akorát Advanced DOF když zapnu tak to vizuálně nedělá nic ale fps jdou na polovinu, možná bug driverů.

Ale physx jsem si vzhledem k I7 @ 4,2ghz nechal nakonec na SW. Kupodivu to ani moc nesráželo FPS jako to bejvalo na GTX260, ale spíš to přidávalo lag myši, jako kdyby se s tim zvětšil pedbufgfer, což je pro mě celkem zlo, protože já nemůžu mít žádnej inputlag nikde, jsem na to strašně háklivej.

Napsal: úte dub 27, 2010 1:46 pm
od no-X
Mimochodem, tobě to nedělá onu "zajímavost", že když si zapneš na GTX400 AA, tak se rozmaže obraz?

Napsal: úte dub 27, 2010 5:12 pm
od DOC_ZENITH/XAN
Ne, žádné mazání nepozoruji, ani v Metru ani jinde. Můžu udělat screeny jestli je zájem. Ale asi to tam pojedu bez AA. Ten propad neni velkej, ale nechci abych měl v některejch situacích minima pod 30, nemam to rád. A ta hra je stejně smaej blur a takovej ten shader skla.... bylo by to plýtvání výkonem kde ho fakt neni nazbyt.