Temat
R480---Oficjalna specyfikacja.....
80.51.236.* napisał:
Witam..wczoraj na sieci znalazłem stronke na której sa podane oficjalne taktowania chipów bazujących na R480..
Jeśli rzeczywiście będą takie taktowania to czy jest sens w ogóle wydawania takiej karty???????????
No, chyba że ATI chodzi o to żeby TO SAMO wydać pod nową nazwą co już niestety od jakiegoś czsu stosują....
Co o tym sądzicie...???
A oto Link:
http://www.hwupgrade.it/articoli/1114/index.html
83.26.22.* napisał:
no walsnie nic ciekawe tam nie ma B<80.53.165.* napisał:
W zasadzie to ten sam poprzedni układ tylko z wyzszym taktowaniem.212.76.46.* napisał:
Czy nikt nie pamieta o dodanej obsłudze PS 3.0? Chyba, że mylę GPU212.109.132.* napisał:
a po co zmieniac cos co dobre?nowy radek ma miec dodany ino ps 3.0 i pare bajerkowych FUNKCJI .. a nie jakis cudów natury typu 24potoki czy taktownie z kosmosu
193.151.97.* napisał:
to samo ale przecież podnieść taktowania najłtwiej83.31.45.* napisał:
Po co zmieniać coś co jest dobre ludzie opanujcie sie zrobili jeden dobry chip i z nim leca a ludzi coraz wiecej kupuje je to nie nvidia że spartolą jeden i musza zuepłnie nowy klepac.80.55.93.* napisał:
R480 to tylko gra wstepna do R520.83.25.177.* napisał:
nic nowego , poza tym że wkońcu będzie mogło służyć za grzejnik (większe radiatorki na pamięć )80.51.236.* napisał:
No..Z tym kupowaniem to nie jest tak różowo...Geforcy z serii 6 sprzedają się 2 razy lepiej-przynajmniej..w ostatnim kwartale Nvidia sprzedała 1,5 mln kart na GF6 a Ati niecałe 800tys.....195.136.46.* napisał:
SM3.0 w GF seri 6 przekonalo duzo ludzi . Nawet gadki ala SM3.0 to tyko bajer i wszystko co potrafi SM3.0 da sie zrobic przy SM2.0 nie zmienia faktu ze ludziom podoba sie bardziej 3.0 niz 2.0 . Do tego nowe GF'y dostaly duzo pozytywnych recenzji i mimo slabszej wydajnosci z FSAA/AF to wygrywaja cena i rozpietoscia chipsetow. Od 6600 po 6800Ultra. Ati ma tylko x800PRO/XT a reszta nowych kart to badziewia za wysoka cene. Taki X600XT kosztuje prawie tyle co 9800PRO a przeciez nie dorasta mu do piet. Natomiast nVidia w tej cenie ma rewelacyjnego 6600GT, ktory bije na glowe 9800PRO nie wspominajac o x600XT. Dlatego nVidia ma tak duza sprzedaz kart z serii 6. Poprostu lepiej dobrala oferte. Ati tutaj nic ciekawego nie pokazala jak wspomnialem wyzej.Nowy chipset nie przyniesie Ati R480 wiekszej sprzedazy a to dlatego ze Ati zwieksza wydajnosc podnoszac taktowanie procesora nie zmie zmieniajac architekture karty a przeszlosc pokazala ze gracze tego nie lubia bo wraz z wyzszym zegarem idzie lepsze chlodzenie a jeszcze dzisiaj duzo ludzi pamieta montowane suszarki na FX'ach5800Ultra . Oby Ati nie zapomnialo o tym ze sama wydajnosc sie nie liczy. Wazne jest tez czy przy super wydajnosci nie trzeba bedzie zakladac korkow na uszy . Do tego nVidia zawsze byla uznawana za firme pewna. Robiaca lepsze stery oraz brakiem klopotow w grach. Ati niestety stery ma gorsze i nadal wystepuja czasem klopoty z grami . To tez wplywa na sprzedaz kart. Nikt nie lubi szukac patchy do gry bo cos nie dziala. Jedna super seria kart to za malo aby pokonac monopoliste. Dlatego nVidia ma lepsze wynik sprzedazy nowych kart od Ati.
83.23.8.* napisał:
[quote]Po co zmieniać coś co jest dobre ludzie opanujcie sie zrobili jeden dobry chip i z nim leca a ludzi coraz wiecej kupuje je to nie nvidia że spartolą jeden i musza zuepłnie nowy klepac.[/quote]tylko, ze imho to ati wlasnie spartolilo....brak odpowiednika SLI, brak SM3.0, brak HDR...r480 beda probowac wejsc w odpwoenik SLI , ale dopierow o r520 mozna powiedzec, ze dogoni konkurencje....tylko, ze kiedy to bedzie. za rok? wczeniej - polowa przyszlego roku, M$ zaprezentuje XBOX'a2 z r500, i imho dopiero w 3 lub 4 kwartale '05 bedzie mozna zobaczyc cos nowego w PC z r520 na pokladzie....ATI spoczelo na laurach z swoim r3xx, teraz dopiero budza sie z letargu....szkoda, ze tak pozno...
[quote] ... wszystko co potrafi SM3.0 da sie zrobic przy SM2.0 [/quote]
co oczywiec jest kompletna bzdura...no ale jak takim ludziom paluchem nie pokazesz to nie uwierza...
80.51.236.* napisał:
Właśnie ...Tu moim ATI zrobiło JEDEN dobry chip a NVIDIA oprócz serii NV3x wydawała zawsze dobre lub bardzo dobre układy....Chociaż nie dziwie się ATI że już od ponad 2 lat ATI rozwija architekture r300-jak udało się stworzyć tak udany chip to teraz chcą jak najwiecej na nim zarobić bo już może nigdy nie uda im się zaprojektowac równie udanego układu....
teraz moim zdaniem to samo może zrobić NVIDIA-
A chodzi mi konkretnie o to że teraz to NVIDIA moze rozwijać z powodzeniem architekturę NV40 poprzez dodawanie potoków, jednostek VS, zwiekszanie taktowania zegarów i pamięci oraz implementowanie kilku nowych funkcji...
Wcale bym się nie zdziwił jeśli NV50 bazowałby na mocno podrasowanej architekturze NV40/NV48(32 potoki, ~10 VS, GPU 500-550 mhz, pamięc~2 ghz)..Myśle że taki układ z powodzeniem mógłby rywalizować z r520....
81.18.209.* napisał:
[quote]tylko, ze imho to ati wlasnie spartolilo....brak odpowiednika SLI, brak SM3.0, brak HDR...[/quote]
To ciekawe, bo efekt ten widziałem na r9500 Pro jak i r9800...
innymi słowy - pie*** głupoty
83.23.4.* napisał:
[quote]To ciekawe, bo efekt ten widziałem na r9500 Pro jak i r9800...innymi słowy - pie*** głupoty[/quote]
jaki efekt? HDR? to chyba nie ten HDR widziales...
http://www.openexr.com/
http://www.xbitlabs.com/articles/video/display/farcry13.html
83.27.212.* napisał:
No i co mi po HDR jak ostatnio widzialem gdzies z tym testy i po wlaczeniu bylo 35 FPS 8O Wogole ten efekt to przerost formy nad trescia. Screny wedlug mnie wygladaja ochydnie :/ Zamiast nieba widze blask, ktory oslepia moje oczy, a to juz realistyczne nie jest83.31.7.* napisał:
[quote]No i co mi po HDR jak ostatnio widzialem gdzies z tym testy i po wlaczeniu bylo 35 FPS 8O Wogole ten efekt to przerost formy nad trescia. Screny wedlug mnie wygladaja ochydnie :/ Zamiast nieba widze blask, ktory oslepia moje oczy, a to juz realistyczne nie jest [/quote]Mam to samo zdanie
Ani to ładnie nie wygląda ani nie działa dobrze
Tylko jest
83.23.4.* napisał:
[quote]Ani to ładnie nie wygląda ani nie działa dobrze Tylko jest [/quote]ale no wlasnie - JEST...czy roweru tez nie uzywasz bo jest brzydki i wolno jedzie? masz ochote to wsiadasz i jedziesz....no chyba, ze nie masz roweru
BTW testami to akurat bym sie nie sugerowal jesli chodzi o framerate - najnowsze stery dopalaja HDR tak o 50-100%...
83.27.212.* napisał:
[quote][quote]Ani to ładnie nie wygląda ani nie działa dobrze Tylko jest [/quote]ale no wlasnie - JEST...czy roweru tez nie uzywasz bo jest brzydki i wolno jedzie? masz ochote to wsiadasz i jedziesz....no chyba, ze nie masz roweru
BTW testami to akurat bym sie nie sugerowal jesli chodzi o framerate - najnowsze stery dopalaja HDR tak o 50-100%...[/quote]
Tylko, ze na rowerze sie jezdzi bo sie czasem musi. A w gry nikt grac nie karze
84.10.11.* napisał:
[quote]SM3.0 w GF seri 6 przekonalo duzo ludzi . Nawet gadki ala SM3.0 to tyko bajer i wszystko co potrafi SM3.0 da sie zrobic przy SM2.0 nie zmienia faktu ze ludziom podoba sie bardziej 3.0 niz 2.0 [/quote]Ja myśle, że ludzi przedewszystkim przekonała niższa o 1/3 cena układów nVidii o podobnej wydajności do ATI - X800Pro - ok. 1800zł, GF6800 - ok. 1200zł...
213.76.236.* napisał:
Zobaczymy co wyjdzie z HDRem. Efekt da sie uzyskac na radku, ale trzeba uzyc innych metod. To co pokazali w FC to funkcja mozliwa do zrealizowania tylko na NV4x (wiadomo kto wyklada kase dla programistow), nie jest nawet zaimplementowana w DX, a nie od dzis wiadomo, ze to co nie jest czescia DX nie ma racji bytu na dluzsza chwile.Ja sens isntnienia w R430/480 widze z innej strony - koszta. Uklady sa wykonane w 0,11um, a to pozwala taniej produkowac.
83.27.212.* napisał:
[quote][quote]SM3.0 w GF seri 6 przekonalo duzo ludzi . Nawet gadki ala SM3.0 to tyko bajer i wszystko co potrafi SM3.0 da sie zrobic przy SM2.0 nie zmienia faktu ze ludziom podoba sie bardziej 3.0 niz 2.0 [/quote]Ja myśle, że ludzi przedewszystkim przekonała niższa o 1/3 cena układów nVidii o podobnej wydajności do ATI - X800Pro - ok. 1800zł, GF6800 - ok. 1200zł...[/quote]
no tak ale X800XT PE a 6800 Ultra ? Tu chyba z cena jest odwrotnie
213.76.236.* napisał:
[quote], że ludzi przedewszystkim przekonała niższa o 1/3 cena układów nVidii o podobnej wydajności do ATI - X800Pro - ok. 1800zł, GF6800 - ok. 1200zł...[/quote]Zgadza sie. ATI zastosowalo beznadziejna polityke cenowa, a NV zachowuje sie bardzo racjonalnie i elastycznie. Przykladowo 6800LE i 6800 nie maja odpowiednikow cenowych i to one nabijaja najwikszy % sprzedazy HighEnd. X800SE nie widac. X800Pro mimo iz kosztuje tyle co 6800GT to nie jest rownie atrakcyjne - wolniejsze i mniej zaawansowane technologicznie. Kolejny punkt dla NV. X800XT jest drozsze od 6800GT. Tylko X800XT PE jest ciut tansze od 6800U i co ciekawe w dziedzinie sprzedazy tych najwyzych kart ATI minimalnie prowadzi, choc globalnie NV ma znaczaca przewage.
83.23.4.* napisał:
[quote]Zobaczymy co wyjdzie z HDRem. Efekt da sie uzyskac na radku, ale trzeba uzyc innych metod....[/quote]a kto powiedzial, ze HDR musi byc standardem dx'a? wystarczy, ze ma juz wlasny standard - OpenEXR...a przyznasz, ze latwiej i taniej podczepic sie pod gotowy standard niz na sile promowac swoj...
213.76.236.* napisał:
Jakie "przelomowe" rozwiazania, ktore nie znalazly sie w pakiecie MS sa powszechnie uzywane?83.23.4.* napisał:
ja nie traktuje HDR jako "przelomowego" - jest po prostu dodatkiem podnoszacym "realizm" wyswietlanego obrazu, a ze stoi za tym ILM ze swoim standardem to mysle, ze ma on jakas przyszlosc. OpenGL, OpenAL tez nie sa standardami wypromowanymi przez M$, a to co sie znajduje w systemie nie mozna nazwac pelna ich implementacja, sa to tylko "klienci" odowlujacy sie do rozwiazan (rozszerzen) zewnetrznych - np. w sterownikach...
80.51.236.* napisał:
No jak narazie to 2/3 rynku high end(w ostatnm kwartae) ma NVIDIA....Jest to właśnie efekt bardzo dobrej sprzedaży kart z serii 6, która jest zdecydowanie lepsza niż najnowszych radków...ATI zaś najwiekszą kase trzepie za (bardzo dobre zresztą)Radzieje 9800pro/SE....Co do tego HDR to jak dla mnie to oczywistą sprawą jest że lepiej coś mieć niż tego nie miec....Niektórzy piszą że screeny są zbytnio oświetlone-fakt, ale z pewnoscią z biegiem czasu oświetlenie zostanie wyważone i wtedy będzie zdecydowanie lepiej..
I jeszcze jedno-ci wszyscy którzy tak wypisują jak to nieprzydatne są SM3.0 i HDR....(choć pewnie jest tak dlatego że to NVIDIA posiada te funkcje)...
Popatrzcie co daje to ATI-towskie 3Dc(czy jak to się nazywa)????
jak narazie TOTALNIE NIC...a NIBY miała być to taka rewolucyjna technologia....SM3.0 przynajmniej daje kilka-kilkanaście % wydajności....
Jeśli SM3.0 daja tak niewiele to ciekawe po co ATi rozgłasza wszem i wobec że r520 będzie wspierał SM3.0???????
Dlaczego 99% nowych technologii czy rozwiązań , które wpowadza NV jest krytykowane??????????
81.190.213.* napisał:
[quote][quote]Ani to ładnie nie wygląda ani nie działa dobrze Tylko jest [/quote]ale no wlasnie - JEST...czy roweru tez nie uzywasz bo jest brzydki i wolno jedzie? masz ochote to wsiadasz i jedziesz....no chyba, ze nie masz roweru
BTW testami to akurat bym sie nie sugerowal jesli chodzi o framerate - najnowsze stery dopalaja HDR tak o 50-100%...[/quote]
Które stery tak dopalają HDR ?
83.23.4.* napisał:
[quote]Które stery tak dopalają HDR ?[/quote]70.41, ale z tego co widze to 66.93 tez daja podobny dopal...
83.27.235.* napisał:
[quote]No jak narazie to 2/3 rynku high end(w ostatnm kwartae) ma NVIDIA....Jest to właśnie efekt bardzo dobrej sprzedaży kart z serii 6, która jest zdecydowanie lepsza niż najnowszych radków...ATI zaś najwiekszą kase trzepie za (bardzo dobre zresztą)Radzieje 9800pro/SE....Co do tego HDR to jak dla mnie to oczywistą sprawą jest że lepiej coś mieć niż tego nie miec....Niektórzy piszą że screeny są zbytnio oświetlone-fakt, ale z pewnoscią z biegiem czasu oświetlenie zostanie wyważone i wtedy będzie zdecydowanie lepiej..
I jeszcze jedno-ci wszyscy którzy tak wypisują jak to nieprzydatne są SM3.0 i HDR....(choć pewnie jest tak dlatego że to NVIDIA posiada te funkcje)...
Popatrzcie co daje to ATI-towskie 3Dc(czy jak to się nazywa)????
jak narazie TOTALNIE NIC...a NIBY miała być to taka rewolucyjna technologia....SM3.0 przynajmniej daje kilka-kilkanaście % wydajności....
Jeśli SM3.0 daja tak niewiele to ciekawe po co ATi rozgłasza wszem i wobec że r520 będzie wspierał SM3.0???????
Dlaczego 99% nowych technologii czy rozwiązań , które wpowadza NV jest krytykowane??????????[/quote]
Pewnie, ze warto cos miec niz nie miec. Ale na ATi HDR tez da sie osiagnac A co do SM3.0 to nikt niewie co to bedzie u ATi bo narazie tylko nVidia to wprowadzila i nie wiadomo jak to powinno przyspieszac dzialanie gier. A co do 3Dc to wczoraj przegladalem testy na jakies zagranicznej stronce i wzrost FPS jest ale dopiro przy duzych rozdzielczosciach, i z tego co bylo mozna zobaczyc z testu to dalo to wzrost nawet powyzej 20%
Ale i tak trzeba poczekac na inne gry ktore beda to obslugiwaly, wtedy przynajmniej bedzie mozna to porownac. A narazie to mozemy pogdybac czy cos ulegnie zmianie czy nie
80.51.236.* napisał:
Buziak....Jeśli możesz to podaj tego linka gdzie 3Dc daje taki wzrost wydajności..Niewiedziałem że już są gry które wykorzystuja 3Dc...
Z tego co mi wiadomo to jak narazie tylko patch 1.3 do Far Cry wykorzystuje tę funkcje i z testów wynika że wzrostu niemalże nie ma...
Właśnie to dlatego też dopiero NV50 będzie miała dużo lepiej dopracowany SM3.0 i wtedy możemy porównywac pomiedzy r520 i NV50....
213.76.236.* napisał:
20% to przesada, ale cos tam jest:http://www.xbitlabs.com/articles/video/display/farcry13_9.html
83.27.250.* napisał:
[quote]20% to przesada, ale cos tam jest: http://www.xbitlabs.com/articles/video/display/farcry13_9.html[/quote]No tu moj blad, przesadzilem, ale glownie zapamietalem reserch w 1280x1024 bo ta rozdzielczosc mnie najbardziej interesuje i tu jest przyrost 10 FPS z AAx4 i AFx16
80.51.236.* napisał:
No w tym akurat przypadku to prawda...Ale jeśli by porównywać to jednak SM3.0 daje więcej niż to 3Dc..Przynajmniej narazie...
Tylko ciekawe czy ta technologia nie podzieli losu innego `rewolucyjnego` rozwiązania jakim miala być TRUEFORM...
195.136.7.* napisał:
W SM 2.0 da sie to samo osiągnąć co w SM 3.0 ale 3 ułatwia prace programistomA co do jakości układu zadziwiające jest jak chłopaki z ATI łatwo chłopaki przebudowali R360 na R420
dorzucili 8 potoków pewnie trochę jakichś optymalizacji i to wso.
BTW porównajcie ilość tranzystorów w 6800 i X800, naprawdę to był mistrzowski pokaz jak nprzy niewielkiej pracy osiągnąć zaskakujące efekty, a puki co SM 3.0 nie bałdzo jest w czym wykożystać.
80.51.236.* napisał:
No jak narazie je ma zbyt wielu aplikacji które wykorzystuja SM3.0 ale to tylko kwestia czasu.A w ilu grach można wykorzystać obecnie 3Dc?????Właśnie sytuacja jest identyczna jak z SM3.0 tylko jest jedna różnica-
SM3.0 z pewnością będzie w przyszłości powszechnie stosowany ponieważ także i ATI będzie posiadało produkt wspierajacy SM3.0 a co do 3Dc to nie byłbym tego taki pewien czy będzie stosowany w większości gier....
Co do r420 to tutaj była ta różnica że NVIDIA potrzebowała nowej architektury ponieważ jak wiadomo seria NV3x nie była zbyt udana natomiast ATI posiadało układ który wystarczyło mocno podrasowac i tyle....
W takiej samej sytuacji jest teraz NVIDIA...To ona posiada układ o jeszcze wiekszej skalowalności niż ATI z r300 i spokojnie mogłaby zastosować ten sam trik co ATI czyli że NV50 to będzie układ oparty na mocno podrasowanej architekturze NV40 z dodatkowymi jednostkami VS i potokami+kila nowych funkcji...
Jest to bardzo prawdopodobne ponieważ jak wiemy to SM4.0 pojawią się wraz z Longhornem --najwcześniej 2006-i raczej napewno żaden z układów który będzie miał swoją premierę w 2005 nie będzie wspierał tego standardu...
Jeśli chodzi o iloć tranzystorów to nie ma w tym nic dziwnego że NVIDIA ma ich zdecydowanie więcej...Jest to spowodowane tym że NV40 obsługuje SM3.0 i właśnie to wymaga tak dużej ilości tranzystorów...Gdyby NVIDIA miała tylko SM2.0 to układ miałby co najwyżej 180-190 mln tranzystorów....
83.23.14.* napisał:
[quote]W SM 2.0 da sie to samo osiągnąć co w SM 3.0 ale 3 ułatwia prace programistom[/quote]nie wytrzymam zaraz....przestancie mylic SM2.0 z PS2.0! SM2.0 (ShaderModel) to jest ogolna nazwa pixel (PS) i vertex (VS) shaderow. to ze da sie na na PS2.0 zrobic to samo co naVS3.0 to sie zgadza - straci sie "tylko" na wydajnosci, ale nigdy nie zrobisz VS2.0 tego co mozna zrobic VS3.0! no chyba, ze programowo...1 fps...
[quote]BTW porównajcie ilość tranzystorów w 6800 i X800, naprawdę to był mistrzowski pokaz jak nprzy niewielkiej pracy osiągnąć zaskakujące efekty, a puki co SM 3.0 nie bałdzo jest w czym wykożystać.[/quote]
a o czym dokaldnie piszesz? bo chyba nie o "wydajnosci" przy MHz? bo tu ati b.blado wypada...przy takim taktowaniu i technologii, itd, r420 powinien zmiatac z powierzchni...a tak nie jest...r420 to dla mnie jak p4 w procach - czysta sila MHz, bez finezji i polotu, z dewiza - nic na sile, wez wiekszy mlotek...
a co do tytulow - Pacific Fighters, b.dobry przyklad co daje wlasnie VertexShader 3.0...
195.136.72.* napisał:
Heh co sie dziwic w koncu fani ATI... Jak rok temu nvidia miala wysokie taktowania w FX to fani ATI zarzucali to tej karcie. A teraz ?Mamy odwrotna sytuacje...ATI by dogonic GF6 czy przescignac musiala znacznie podbic zegary. Dobrym przykladem beda tu karty 12 potokowe. ATI X800PRO ma takt. 475/950 o ile sie nie myle. GF6800 350/700. Po podniesieniu zegarow GF na 400/900 roznica miedzy wydajnoscia kartami zaczyna znikac, a nawet przechodzic na korzysc GF6800. To co to by bylo gdyby wyrownac zegary ? ;-) Popatrzcie testy podkreconych GF6800 i porownajcie213.76.236.* napisał:
Jak bezsensowna jest gadka porownujaca sprzet przy tych samych zegarach. I co z tego ze P4 ma wiecej MHz niz Athlon XP? Jakby zrownac zegary to oczywiscie Athlon jest wydajniejszy (choc nie zawsze), ale Athlon nigdy nie uzyska taktowania Pentiuma, a co za tym idzie roznice wydajnosciowa znowu przechodzi na kozysc konkurenta.[quote]To co to by bylo gdyby wyrownac zegary ? Popatrzcie testy podkreconych GF6800 i porownajcie
[/quote] A r420 to sie nie kreci?
213.76.236.* napisał:
Sulaco=> wysoki zegar ma swoja jedna dobra strone - w grach prostych, wymagajacych wysokiej predkosci wypelniania wysoki zegar robi swoje. Dobrym przykladem jest tu chocby RaceDriver2, gdzie X800XTPE ma niemal dwukrotnie lepsza wydajnosc, mimo iz gra jest objeta programem wsparcia NV, a gra jest oparta na prostym silniku bez wielu bajerow.80.51.236.* napisał:
Oczywiście...Porównywanie dwóch różnych układów o tych samych zegarach mija się z celem ale...w przypadku procesorów..Jeśli chodzi o karty graficzne to niekoniecznie....
W przypadku Athlonów(XP czy 64) wysokich częstotliwości nie pozwala osiągnąć architektura która w P4 jes w taki sposób zaprojektowana żeby osiągac wysokie zegary...
Moim zdaniem właśnie przy identycznej teoretycznej wydajności dwóch różnych ukadów można stwierdzić która architektura jest wydajniejsza...
Przecież w Geforcach 6 to nie architektura nie pozwala na stosowanie wysokich zegarów tylko zastosowana technologia..
gdyby ATI nie zastosowało 0,13 microna Low-K to z pewnością nie udało by im się osiągnąć takich zegarów w najnowszych radkach...
A to że przy tej samej technologii wytwarzania Geforcy osiągają takie same-jesli nie wyższe-zegary widac np w przypadku NV43 i RV410....
Zgadzam się natomiast z tym że współczynnik Fillrate ma znaczenie w niektórych gierach.....
213.76.236.* napisał:
A moze chodzi o fakt niemoznosci zastosowania niektorych procesor do roznych konstrukcji? NV zdaje sie blisko wspolpracowala z IBMem, ktory jest pionierem w kwestii SOI. Zreszta obecnie oba uklady pochodza od tego samgo producenta wiec czemu NV nie zastosowala technik pozwalajacych podniesc czestotliwosc? Czyzby byla by w tedy zbytnio z przodu i dziala tu "tajne porozumienie"?Zreszta X700XT i GF6600GT cechuje podobna wydajnosc przy podobnych zegarach.
80.51.236.* napisał:
Nie nie....jak już napisałem we wcześniejszym poście widac doskonale który układ znosi wyższe częstotliwości przy zastosowaniu IDENTYCZNEJ technologii gdy porównamy NV43 i RV410...
Oba układy są produkowane w `czystej`technologii 0,11 microna i co???NV43 spokojnie osiąga 570 mhz przy standardowym chłodzeniu podczas gdy ATi ma w ogóle problemy z produkcją wystarczajacej ilości chipów pracująchych z 475 mhz a te które już pracują z takim zegarem to wykręcają sie do średnio 510 mhz i to z ledwością....
I pisze jeszcze raz-ATI osiągnęło tak wysokie zegary w Radeonach dzieki Low-K bo jeśłi by tak nie było to dlaczego przy przejściu na 0,11 microna nie mogą osiągnąć np 600mhz skoro przy 0,13 Low-k osiągają 520?????I dlaczego najmocniejszy R480 ma miec chłodzenie zajmujące 2 sloty skoro zegar ma podbity TYLKO o 20 mhz?????????
80.51.236.* napisał:
No cóż...Fakt Radek X700XT i GF6600GT mają podobną wydajność ale to jednak GF jest ogólnie rzecz biorąc nieco wydajniejszy i to mimo posiadania o 3 jednostki VS mniej....
213.76.236.* napisał:
Spojz inaczej-chodzi o dopracowanie technologii i odpowiednie stepingi. Pierwsze r300 smigaly ledwie na 340MHz. Ostatnie wypusty robily 400MHz, a R350 robiony w tym samym wymiarze juz 450-480MHz. Roznica jest. Podobnie z NV30 i NV35 (Wszak GFFX5950 mial miec zegar 500MHz, ale sie nie dalo. Ostatnie wypusty 550 robia bez problemu). Nie zapomnij jakie byly poczatki GF6800Ultra, teraz wystarczajaca ilosc chipw nie jest juz problemem.213.76.236.* napisał:
[quote]No cóż...Fakt Radek X700XT i GF6600GT mają podobną wydajność ale to jednak GF jest ogólnie rzecz biorąc nieco wydajniejszy i to mimo posiadania o 3 jednostki VS mniej....[/quote]
Tak, ale tez radek jest ukladem prostszym bez takiej ilosci optymalizacji silnika graficznego jaki ma seria NV4x.
213.76.236.* napisał:
[quote]I pisze jeszcze raz-ATI osiągnęło tak wysokie zegary w Radeonach dzieki Low-K bo jeśłi by tak nie było to dlaczego przy przejściu na 0,11 microna nie mogą osiągnąć np 600mhz skoro przy 0,13 Low-k osiągają 520?????I dlaczego najmocniejszy R480 ma miec chłodzenie zajmujące 2 sloty skoro zegar ma podbity TYLKO o 20 mhz?????????[/quote]Te 0,11um to jest najpewniej juz bez low-k. Moim zdaniem caly sens wypuszczania tego chipu jest taki, by obnizyc sobie koszta jednostkowe-bo uklad mniejszy jest tanszy w produkcji, a i low-k tez pewnie cos kosztuje.
80.51.236.* napisał:
No tutaj to się zgodze ze w miarę udoskonalania technologii wyższe częstotliwości są możliwe...Ale nie przypominam sobie żeby jakiekolwiek r350 chodziło na 450-480 mhz....No chyba że po Vmodach lub na wodnym chłodzeniu...
Ale nie o tym pisze...
Jesli by tak na to patrzec to NV43 spokojnie osiągnie ponad 600mhz przy zastosowaniu np. chłodzenia od GF6800U....
Ale chodzi mi głównie o to że przy przejsciu na niższy wymiar technologiczny np.0,13 na 0,11 już na `wstepie` zyskuje się dodatkowe mhz...
PS.Przeciez gdyby tak wysokie zegary można było zastosowac w przypadku ATI bez zastosowania Low-K to NAPEWNO Kanadyjczycy nie produkowaliby r420 w tej technologii która jest bardzo kosztowna....Przecież teraz głównie dlatego przechodza na 0,11 microna....
213.76.236.* napisał:
[quote]Ale nie przypominam sobie żeby jakiekolwiek r350 chodziło na 450-480 mhz....No chyba że po Vmodach lub na wodnym chłodzeniu... [/quote]Moje na tyle chodzily, a lepsze sztuki nie sa tu wyjatkiem
83.23.14.* napisał:
[quote]Sulaco=> wysoki zegar ma swoja jedna dobra strone - w grach prostych, wymagajacych wysokiej predkosci wypelniania wysoki zegar robi swoje. [/quote]w tych prostych grach wykrecasz 100-200fps, a chyba nie o to juz chodzi...
[quote]Dobrym przykladem jest tu chocby RaceDriver2, gdzie X800XTPE ma niemal dwukrotnie lepsza wydajnosc, mimo iz gra jest objeta programem wsparcia NV, a gra jest oparta na prostym silniku bez wielu bajerow.[/quote]
sorki, ale RD2 jest najgorszym przykladem...jesli widze, ze 6800gt ma framerate na poziome fx5950u i 9800xt (!), to wybacz, ale wyniki w tej gierce nie sa dla mnie zadnym argumentem....przemilcze tez kwestie, ze Toca jest jedna z gierek znajdujacych sie na liscie softu, ktory "odpowiednio" rozpoznaja sterowniki...ale to juz inna bajka...kwestia optymalizacji w dobrym tego slowa znaczeniu i byc moze bug w samym silniku. wszystko ok jesli r420 jest szybsze, tak wlasnie powninno byc....schody zaczynaja sie gdy tak nie jest...a niestety tak bywa...
czytales ten art.? http://www.3dcenter.org/artikel/nv40_pipeline/index_e.php
zeby byla jasnosc - ja do 4xx nic nie mam - chce ktos miec ati, prosze bardzo, ale ja osobiscie od momentu pojawienia sie nv40 do chwili gdy pojawi sie r5xx na ati nie spojrze., chocby nie wiem co mieli czarowac...wszystko idzie do przodu, a dla mnie ati stoi w miejscu i przebiera nogami jak dziecko z pelnym pecherzem...od dobrych dwoch lat...takie jest moje zdanie...
213.76.236.* napisał:
Jaaasne, jak masz niezoptymalizowana scene z milionami wielokatow, to z 200 robi sie 50. Prosty przyklad - LockON.
Nie widze realnych kozysci dobrodziejstw jakimi NV sypie na prawo i lewo. Po cholere mi rozpasla bryka z 3l silniekiem do jazdy po miesice? Dla mnie osobiscie nie robi wrazenie SM3.0 bowiem zanim sie zadomowi i bedzie mozna realnie z niego kozystac to jeszcze kilka razy zmienie grafike.
Robiles osobiscie pomiar w RD2? Ja robilem i roznice sa zgola inne. O ile GF6800U mam 40-60fps w zaleznosci od trasy, to X800 daje 80-90fps. RD jest wlasnie taka gra, ktora pokazuje mozliwosci geometryczne, bez wchodzenia na wyzsze poziomy dobajerzania programow.
I drugie rozwiazanie ma zalety, ale odsuwanie jakichs roznic na bok bo akurat cos mi nie lezy nie jest odpwiednim postepowaniem. Dobrze wiesz, ze przyklady mozna wysuwac co krok i przescigac sie w mowieniu co jest lepsze a co nie, ale tym sposobem zadnego konsensusu sie nie osiagnie.
80.51.236.* napisał:
Racja- Sulaco...jak dla mnie to ATI zachowuje się jakby myślało-po porażce NV3x-że już nic im nie zagrozi i że wystarczy jak dopracuja stare r300 po raz kolejny i bedą panowac...
Ale jak widac NVIDIA uczy się na własnych błedach..
Tę sytuacje-jak bardzo ATI była pewna sukcesu r420-obrazuje to że r420 miał miec premiere na pocztątku marca a gdy się okazało że NV40 jest wydajniejsze niż komukolwiek się w obozie ATI wydawało, zacżeto przekładac premierę żeby miec czas na pobicie zegarów....
Może z r520 ATI znów pokaże że nie jest firma której wyszedł jeden układ....
Z drugiej jednak strony trzeba przyznać że r420 jest wydajny i ogólnie rzecz biorąc jest to dobry układ...
PS.Zobaczymy co obie firmy zaprezentuja w NV50 i r520....
213.76.236.* napisał:
Wlasnie! Lekcewazenie przeciwnika nigdy na dobre nie wychodzi. tak samo jak patrzebie na rynek z gory - vide ceny i podzial klasowy kart ATI do odpowiednikow NV. Porazka.195.136.72.* napisał:
Pewnie ze tak i to nawet wersje PRO da sie przerobic na XT
Chodzilo mi poprostu o to ze GF przy tym taktowaniu potrafibyc wydajniejsza karta...w dodatku mozna nabyc ja juz za 1220zl :-)
195.136.72.* napisał:
Pewnie ze tak i to nawet wersje PRO da sie przerobic na XT
Chodzilo mi poprostu o to ze GF przy tym taktowaniu potrafibyc wydajniejsza karta...w dodatku mozna nabyc ja juz za 1220zl :-)
EDIT: niewiem co sie stalo ze 2x wyskoczylo :/ sorka
83.23.14.* napisał:
[quote]Jaaasne, jak masz niezoptymalizowana scene z milionami wielokatow, to z 200 robi sie 50. Prosty przyklad - LockON.[/quote]lub nawet mniej w przypadku lomac'a....na obu kartach chodzi porownywalnie...porownywalnie wolno...
[quote]Nie widze realnych kozysci dobrodziejstw jakimi NV sypie na prawo i lewo. [/quote]
ok. ja nawet nie widze zadnych dobrodziejstw ze strony ati. no ale co kto lubi i czego oczekuje to juz jego sprawa...
[quote]Robiles osobiscie pomiar w RD2? Ja robilem i roznice sa zgola inne. O ile GF6800U mam 40-60fps w zaleznosci od trasy, to X800 daje 80-90fps. RD jest wlasnie taka gra, ktora pokazuje mozliwosci geometryczne, bez wchodzenia na wyzsze poziomy dobajerzania programow. [/quote]
a robiles testy na r9800 lub fx5950? wlasnie chodzi o to, ze wyniki sa porwnywalne dla tych kart i dla 6800gt. to nie jest normalne, a juz na pewno to nie jest ukazanie jakis mozliwosci. to jest skopany za przeproszeniem silnik lub bug w sterach, to nie ma nic wspolnego z karta jako sprzetem.
http://graphics.tomshardware.com/graphic/20041004/vga_charts-12.html
dla porownania CoD
http://graphics.tomshardware.com/graphic/20041004/vga_charts-06.html
czy o tym tez napiszesz, ze jest to pokaz mozliwosci sprzetu?
to wszystko rozbija sie o stery i silnik gier. dla mnie obie karty maja podobna wydajnosc z lekka i sporadyczna przewaga r420. i to tyle jezeli chodzi o ati, reszta nalezy do nv...
[quote]I drugie rozwiazanie ma zalety...[/quote]
oczywiscie ze ma, ale dla mnie sa one niewystarczajace. oprocz framerate oczekuje tez czegos nowego i niestety, ale ati mi tego nie daje...na pewno nie dzisiaj...
213.76.236.* napisał:
Jasne... roznica wydajnosci w LO 1280x1024 AF8x+AA4x to bagatela 20%-25%. Ta gra mnie najbardziej interesuje i robilem kilka testow na roznych demach. Minimalny FPS jest o 3-4klatki wyzszy na ATI i roznica miedzy 16 a 20 jest juz zauwazalna i stanowi o komforcie latania, a srednia np. na demie A10 jest wyzsza o wasnie o 20%.Oczywiscie najlepiej zwalic wszystko na zwalony sterownik, engine i przyklady mozna mnozyc... to samo mozna powiedziec o CoD. Nie od dzis wiadomo, ze engine Q3 lubi karty NV, do tego dochodzi jeszcze OpenGL. A to samo co ty opowiadasz o RD2 mozna powiedziec o tej grze, mnozyc przypuszczenia (a nie wpadles ze moze to byc wplyw poprostu architektury i mozliwosci CPU? Podobnie sprawuje sie np Collin05...Nalezy poprostu przyjac fakt, a nie biadolic. Faktem jest np Doom3. ) IL2 lepiej tez chodzi na OGLu na kartach NV, ale z D3D jest inaczej i testy takie znajdziesz chocby na xbitlabsach. Widzisz-punkt widzenia zalezy od punktu siedzenia.
80.51.236.* napisał:
Nie no panowie...Nie ma się co sprzeczać-faktem jest że są gry które lepiej działają na NVIDII i są takie co lepiej chodzą na ATI...
Wiadomo że NVIDIA ma lepszy OpenGL ale to że ATI ma lepszy D3D to bym polemizował bo jest dużo gier które mimo iż wykorzystują D3D chodzą lepiej na NVIDII....
Co do możliwości GPU to oczywiście i r420 i NV40 mają bardzo duże zapasy mocy jednak jest tutaj bardzo istotna różnica..
R420 jest u kresu swoich możliwości a NV40 wręcz przeciwnie...
83.27.220.* napisał:
[quote]Nie no panowie...Nie ma się co sprzeczać-faktem jest że są gry które lepiej działają na NVIDII i są takie co lepiej chodzą na ATI...
Wiadomo że NVIDIA ma lepszy OpenGL ale to że ATI ma lepszy D3D to bym polemizował bo jest dużo gier które mimo iż wykorzystują D3D chodzą lepiej na NVIDII....
Co do możliwości GPU to oczywiście i r420 i NV40 mają bardzo duże zapasy mocy jednak jest tutaj bardzo istotna różnica..
R420 jest u kresu swoich możliwości a NV40 wręcz przeciwnie...[/quote]
Ogolnie wiadomo, ze gry EA powinny chodzic lepiej na nVidii A tak niestety nie jest
80.51.236.* napisał:
Hmmmm..Może i tak ale Counterstrike:Source też NIBY powinien chodzic lepiej na ATI a tak nie jest.....na szczęście:)
83.27.220.* napisał:
Moim zdaniem czynnikiem wplywajacym dzisiaj na zakup albo X800XT PE i jego nastepcy albo GF6800Ultra bedzie poprostu ocena tego w co kto gra, na jakiej karcie co chodzi lepiej, ktora jest mniej pradozerna i ktora zajmuje 1 a ktora 2 sloty po zamontowaniuP.S. Mi GF nie pasuje bo trace dwa wejscia USB i FireWire z ktorego korzystam. A to, ze w niektorych grach na ATi jest 10 FPS mniej niz na GF to mnie nie rosza, bo wtedy i tak jest cos kolo 50 FPS czyli chodzi plynnie
P.S2 wlasnie zobaczylem, ze sa rowniez Cat4.12beta ciekawe co zmienia
213.76.236.* napisał:
[quote]Hmmmm..Może i tak ale Counterstrike:Source też NIBY powinien chodzic lepiej na ATI a tak nie jest.....na szczęście:)[/quote]
Wiesz, zalezy kto gdzie i jak przeprowadza test
80.51.236.* napisał:
No oki-- np. test na Xbitlabs czy na Firingsquad...Chodzi mi o testy wersji finalnej a nie BETA...Hmmm.Pewnie ATI wygrało na Drivenheaven ale to by nie było nic dziwnego bo to typowo PRO-ATIkowy serwis..
Więcej linków nie znam gdzie są testy w wersji finalnej CS:S....
I oczywiście masz rację że także czasem zależy kto jak testuje bo np.niby Tomb Raider:AOD chodzi NIBY szybciej na ATI a na kilku serwisach są testy w których to karty NV są szybsze....
195.94.212.* napisał:
imho nadal jest to ponizej poziomu grywalnosci - min framerate jest znacznie ponizej sredniego, ale ok nie wazne.
ogolnie sie nie zrozumielismy. ja uwazam, ze jesli w wiekszosci testow karta jest przynajmniej dwa razy szybsza od swojej poprzedniczki, to test w ktorym wyniki nagle robia sie porownywalne jest
dla mnie malo miarodajny i praktycznie nie do przyjecia. czy jesli w jakims tescie w 1600x1200 z af8x i aa4x x800xtpe mialby tyle samo klatek co 9800xt stweirdzilbys, ze jest to mozliwe? imho to nie jest mozliwe, a jesli tak jest to nie swiadczy to dobrze o silniku lub sterach...
Podobne tematy
Działy
Copyright © 2002-2024 | Prywatność | Load: 0.99 | SQL: 1 | Uptime: 142 days, 10:42 h:m |
Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl