Temat
NV35/NV38 i tylko 4 potoki.
80.55.43.* napisał:
Jan napisano w www.pclab.pl."W swoich oficjalnych prezentacjach dotyczących NV40 firma NVIDIA wreszcie przyznała się do architektury NV35/NV38: 4x2 (4 potoki renderujące, w każdym po dwie jednostki TMU)"
To by tlumaczylo takie kiepskie wyniki.
Dlatego karty nVidii (FX) maja takie duze zegary zeby dorownac kata ATI
Ciekawe czego sie dowiemy o NV40 po paru miesiacach.
Moze, ze tak naprawde karta ma 8 potokow
83.30.5.* napisał:
To by tłumaczyło słabą wydajnosc w DX 9.0.80.51.67.* napisał:
buahahahato moze moj efiks ma 2*2 ;]
83.26.11.* napisał:
nie wieze ze z nv 40 nv pozuciło wszyskie lolki na pewno nas z czyms w hu...robi83.144.72.* napisał:
Zaden 4 potokowiec nie moze sie rownac z najsilniejszym 4 potokowcem NV
83.144.72.* napisał:
Zaden 4 potokowiec nie moze sie rownac z najsilniejszym 4 potokowcem NV
62.121.67.* napisał:
co z tego ze ma 4x2? Wychodzi na to samo przy uzyciu multiteksturowania co 8x180.53.124.* napisał:
nie jest to to samo , gdyby bylo to nikt by teraz nie robil 16x1 tylko np 4x4 2x8 itp80.53.213.* napisał:
wow, jeśli przy 4x2 mają taką wydajność to ciekawe co by było przy 8x1 !!! ATI by padło195.205.244.* napisał:
przy 8x1 nie wlazla by gabarytowo to PC-ta i potrzebowala malej elektrowni ... jajcarze z NVno i wychodzi ze Radeon8500 tez jest 8 potokowy
80.55.210.* napisał:
Sorry, że wygrzebałem ten temat ale zacząłem zastanawiać się jak to jest z 5200/5600/5700??? Skoro 5900 to 4x2 to reszta jest 2x2??? Macie jakieś wieści na ten temat?62.233.189.* napisał:
ja tego nie czytalem i ou fak! jestem pod wrazeniem,,, jako ze nv sprzedawala sprzet klamiac w specyfikacji mozna do niej odeslac uklady i zdac wymiany na conajmniej taki jak byl w specyfikacji?fakac nvidię takiego wała, prosto w oczy
80.51.67.* napisał:
moze odesle swojego FX'a i zarzadam jakiegos FX5900 jako rekompensate ze straty ;]80.55.134.* napisał:
ja swoja odeslalem i dostalem r9700 Hercules80.53.213.* napisał:
tak, ja po włączeniu AIDA32 mam napis o potokach - 4/280.55.134.* napisał:
zostaje tylko czekac i trzymac kciuki ze w nowych produktach bedzie wszystko OK.Troche konkurencji miedzy NV i ATI ,i o to chodzi, lepsze grafy no i przez co idzie tansze217.99.133.* napisał:
Posiadacze Fx, noto jak niewidzieliscie w Aidzie, albo w rivatunerze ze Fx ma 4 potoki, i dopiero teraz gdy nvidia przyznala sie do 4 potokow, zauwazacie w Aidzie 4 potoki???Kolejny argument, aby nieufac nvidii, olac ja z gory na dol. Byc moze Nv40 bedzie wydajnie good,ale co z tego jak za jakis rok, przyzna sie do kolejnego wala
62.233.189.* napisał:
albo stiunuje driverki80.55.210.* napisał:
Jeśli Aida albo Riva tuner pokazuje 4/2 to czemu dopiero teraz się o tym mówi??? Czy żaden spec z szanujących się serwisów jak np. TH itp. nie zdziwił się widząc to w RivaTuner??? Hmm.A co z FX 5200/5600/5700??? To, że w 5900XT pokazuje 4/2 to normalne bo jest na ostatnim chipie z serii FX NV38. Ale te niby 4 potokowce mają teraz 2/2??? Może to ktoś sprawdzić???
80.55.43.* napisał:
No i kup tu człowieku NV40 a po kilku miesiącach się okaże, że masza karta zakupiona za ciężkie pieniadze nie ma kilku rzeczy podanych na specyfikacji od producenta.83.30.25.* napisał:
Pozostaje mi sie tylko zgodzic z Kolegą.
83.30.23.* napisał:
No ja wlasnie sprawdzilem i moj FX ma 4x1 uff bo juz myslalem , ze przesiadka z R9200 wyszla na marne
213.17.132.* napisał:
Ręce opadają , ale dziwię się że wszyscy dopiero teraz o tym piszecie jak już Nvidia to oficjalnie potwierdziła. Nie ufać Nvidi!
Nie chce mi sie pisać , macie tu http://twojepc.pl/html/imperium_kontratakuje/porownanie.gif i jeszcze http://twojepc.pl/artykuly.php?id=nvidia_geforce_5200 .
217.113.228.* napisał:
Witam ponownie.Sprawdziłem i co zobaczyłem :
aida32(wersja 3.80)
-liczba potoków pikseli-8 i 1tmupotok
aida32(wersja 3.93)
-liczba potoków pikseli-4 i 2 tmupotok
Dziwne.
Co o tym myślicie?
83.30.64.* napisał:
Nvidia przestała sypać $$$ i w aidzie od razu ukazało się 4x262.179.59.* napisał:
Że prawda wyszła na jaw.217.113.228.* napisał:
To nv wszędzie sypie $$$?To chyba niepoważne stwierdzenie.
83.30.64.* napisał:
Dlaczego nie? Twoim zdaniem to przypadek, że w Aidzie ukazało się 4x2?
217.113.228.* napisał:
Nie mam pojęcia.A tak przy okazji, pojawił się Painkiller, może porównamy wydajność naszych kart na tej gierce?
Zobaczymy jak radzą sobie w tym przypadku.
80.53.213.* napisał:
u mnie na max detalach gra chodzi płynniutko217.113.228.* napisał:
Wiesz, mam też 5900xt i jak chodzi na tej karcie doskonale wiem.Bardziej chodzi mi o konkurencję.Jutro sprawdzę na fraps'ie i podam wyniki.Do jutra może już ktoś zapoda wyniki z radeon'ów.
Dobranoc.
80.51.67.* napisał:
u mnie aida pokazala 4*1, ale nie mam najnowszej wersji moze w najnowszej zobacze 2*2 ogolnie nv-beach ma u mnie minuja o takiego -------------------------------------------- nastapna karta bedzie od ATI217.113.228.* napisał:
Cyferki skaczą jak oszalałe od 70 do 220 klatek/sek.Przeważnie 110-160.Wyniki podałem w przybliżeniu.
Jak u Ciebie?
80.55.134.* napisał:
glupie gadanie z tymi testami fps w painkiller (gadnie wszystko na max) co na max ? wszystkie opje w grze ? rozumiem Antyaliasing 6x ? + cienie + trilinear ? taaa ? + jeszcze anizo 8x ? bleeebzdura ...
trzeba najpierw "wykreowac" konfig do testow a potem cos myslec o jakis wynikach
82.160.24.* napisał:
Nie no to juz jest niezły wałek z kartami nV... jak tak mozna było polecieć w kulki z nami klientami ?217.113.228.* napisał:
Ktos farmazona walnął i teraz wszyscy się tego czepili jak rzep psiego ogona.A jeśli chodzi o wydajność....80.51.67.* napisał:
... to jest rzenujaca jak an karte ktora kosztowala w pazdzierniku 700pln !!
217.113.228.* napisał:
Jeśli chodzi o wydajność 5900xt to jest na poziomie radeona9700 a często go troszeczkę przewyższa, więc takie biadolenie jest bezsensowne.83.30.22.* napisał:
Znow mi sie przypominaja twoje posty w topicu o FarCry jak czytam takie rzeczy . Nie masz sie co czarowac cala seria FX nie jest na najwyzszym poziomie ! A twoje porownanie do 9700 jest bez sensu bo cena to ten twoj Fix to jest porwnywalny do 9800SE9800Pro a od niego to on dostaje po [gluteus maximus] ze hej .
83.30.18.* napisał:
Chyba ceną
80.55.210.* napisał:
Wiesz? Tu już o wydajność nie chodzi bo nie jest zła (oczywiście poniżej DX9 ). Chodzi o te wałki jakimi nVidia karmi swoich wielbicieli! Nie jest to miłe jak po roku dowiadujesz się o czymś takim. A ciekawe co byś nam powiedział jakby okazało się, że PS2.0 tak naprawde nie ma tylko jest on wykonywany jakimiś trickami PS1.1??? I co wtedy? Miło by Ci było, że uwierzyłeś w piękną reklame nVidii??? To tylko przykład więc się tym nie sugerujcie ale tak się nie robi!80.55.134.* napisał:
zapomniales dodac z ta wydajnoscia, ze jakosc generowanej grafiki jest zenujaca ... na gf5900xt
uzyskaj jakosc grafiki jak na Radku i wyniki odziwo spadaja o 30 %
80.55.43.* napisał:
Radeon 9700......rdzeń...275Mhz......pamieć.....550Mhz
GF FX5900XT......rdzeń...400Mhz......pamieć.....700Mhz
Chyba widac dlaczego FX jest na poziomie 9700.
Sam widzisz jak bardzo musi nadrabiać ta karta Mhz żeby dorównać 9700.
Radeon wykręcony do takich parametrów bije na głowę FXa.
82.143.131.* napisał:
To nieprawda ze FX maja architeketre 2x2/4x2. Gdyby tak bylo uwidoczniloby sie to chociazby w 3DMarku przy pojedynczym teksturowaniu, a roznice w grach bylyby dalece wieksze w porownaniu do Radeonow. Zreszta wystarczy popatrzec na liczbe tranzystorow w FX - na cos te miliony w koncu sa i tym czyms sa wlasnie potoki. Wzglednie nizsza wydajnosc FX "zawdzieczaja" bardzo glebokiemu potokowi; w polaczeniu z nie najlepsza predykcja skokow takie rozwiazanie znacznie obniza wydajnosc (przypomnijcie sobie pierwsze P4 Willamette - jaka zenujaca wydajnosc mialy w porownaniu do Athlonow nawet przy zegarze 2 GHz), stad nVida musiala zastosowac wyzsze taktowanie aby wyrownac straty.217.113.228.* napisał:
[/quote]Radeon 9700......rdzeń...275Mhz......pamieć.....550MhzGF FX5900XT......rdzeń...400Mhz......pamieć.....700Mhz
Chyba widac dlaczego FX jest na poziomie 9700.
Sam widzisz jak bardzo musi nadrabiać ta karta Mhz żeby dorównać 9700.
Radeon wykręcony do takich parametrów bije na głowę FXa.[/quote]
Jak 9700 tak podkręcisz to spłonie
Ja mogę spokojnie przerobić na 5950ultra.
Pamięci pracowały na 950Mhz a radiatory nawet się porządnie nie zagrzały.
To jeśli chodzi o przetaktowywanie kart.
82.143.131.* napisał:
Wiec sprobuj podkrecic Radeona do TAKICH parametrow
Jest to bardzo trudne ze wzgledu na krotkie potoki u Ati. Analogiczna sytuacje mamy u procesorow - Athlon XP 3200+ jest taktowany 1GHz nizej niz P4 3,2GHz, mimo iz wydajnosciowo nawiazuje z nim walke (wprowadzenie rdzenia Northwood, szyny 800MHz, obslugi HT i dwukanalowych kontrolerow pamieci DDR400 nieco zmienilo stan rzeczy na korzysc Intela). Tak wiec kazdy producent ma swoje rozwiazania, a nam pozostaje tylko sie z tego cieszyc.
83.30.28.* napisał:
No i co z tego ? No chyba , ze jak ty widzisz te 950Mhz na pamieciach to ci oczy przyspieszaja i widzisz wiecej FPS W przetaktowaniu kart nie chodzi o zdobycie jak najwiekszej ilosci Mhz tylko wydajnosci . Co z tego ze masz 950Mhz na pamieciach jak radek ktory ma 680 jest szybszy
82.143.131.* napisał:
Sprawdz sobie wydajnosc GeForcaFX 5950 Ultra w porowaniu do Radeona 9700 Pro i sobie uzmyslowisz CO daje przerobienie GFFX 5900XT na 5950 Ultra To nie tylko MHz, to czysta moc! Tym bardziej ze po przerobieniu dziala W PELNI jako 5950 Ultra, a dzieki zmienionym timingom pamieci mozna je jeszcze bardziej podkrecic. Nie zapominaj ze wiekszosc kart graficznych jest ograniczana przepustowoscia pamieci, a niewatpliwie MHz ja zwiekszaja.
80.55.38.* napisał:
ktoś coś mówił ze karty Ati sie żle podkręcają niech kliknie w mój link do compare , z karty nowej genarecji R360 wycisne i 1GHz z pamięci jak będzie dobra193.110.229.* napisał:
[b] qqrydza, HeatFighter - spokojniej, bo jak nie...80.53.213.* napisał:
owszem to jest najlepsze wyjście, ale nie w pełni, bo 5950Ultra ma 256 MB pamięci RAM, a XT "tylko" 128 MB
80.55.43.* napisał:
Co nie zmienia faktu, że masz nadal 4 potokową kartę
Moja karta kupiona za 899zł podkręcona do 390/700
nie wiele ustępuje FX5900XT5950 którego zegary są o wiele wiele wiele większe.
A wiesz dlaczego bo Radeon ma 8 potokow a nie 4.
80.54.176.* napisał:
Nie wypowiem się w temacie wydajności, bo sprawa jest oczywistaqqrydza pracujesz na bana, już dziś twoje bezsensowne topiki wylądowały na śmieciach, teraz siejesz zamieszanie, nie będziemy tego dalej tolerować
80.55.210.* napisał:
1. A na czym opierasz swoją tezę, że to nie prawda? Przecież na prezentacji NV40 sama nVidia się do tego przyznała. Po prezentacji wszystkie nowe programy do wykrywania pokazują 4*2 a nie tak jak do premiery 8*1. Czy dalej nie możesz uwierzyć w to, że tak uwielbiana przez Ciebie firma wykręciła taki numer?
2. Widocznie 3DMarka można łatwo oszukać! Może nVidia zastosowała trick z virtualnymi potokami?? Kto wie??
3. Tak. Liczba tranzystorów miażdży! Tylko na co poszły te tranzystory? Na zwiększony pobór energii??? Historia lubi się powtarzać. Teraz też nVidia ma więcej tranzystorów bo aż 220milionów przeciwko 180mln ATI. I co wszystkie serwisy trąbią??? Że chip R420 jest wydajniejszy!
Reasumując mam wrażenie, że lubisz duże liczby! Coś jak posiadacze Celeronów! Nie ilość świadczy o wydajności tylko jakość!
80.55.134.* napisał:
taaa Nvidia przypomina po trochu Balerona Intelowskiegoplacisz za NazVe i numerek a dostajesz QPE
82.143.131.* napisał:
Tak sie zastanawiam czy przypadkiem ogloszenie ze chipy NV3x maja architekture 4x2 nie jest zabiegiem czysto marketingowym ze strony nVidii, w koncu teraz moga powiedziec ze "NV40 ma 4x wiecej potokow" no i sie bedzie lepiej sprzedawal. Kto zreszta to wie, jesli rzeczywiscie maja 2 razy mniej potokow to emulacja musi nastepowac na poziomie sprzetowym, bo nawet tricki w BIOSie by nie pomogly. Nie jestem bynajmniej "milosnikiem" nVidii; mialem juz karty S3, Ati i nVidii i moge cos powiedziec o tych firmach. Bardzo sie ciesze ze w koncu Ati robi dobre karty, dzieki temu rozwija sie rynek. I nie porownuj produktow nVidii do Celerona, bo to byl bubel od poczatku, a wystarczy sobie przypomniec jak powalajacy byl pierwszy GeForce gdy sie pokazal jesienia 1999 roku. W zasadzie tylko GeForcy, GeForcy 2 i GeForcy 4 Ti byly udane, ale gdyby Ati nie wypuscilo Radeonow 9500/9700/9800 to nadal uwazalibysmy ze wszystkie serie GeForcow sa rewelacyjne. A tak zawsze mamy wybor.
83.16.22.* napisał:
No widzisz. Teraz to się z Tobą zgadzam. Ja i tak wole S3. Miałem Savage4 i Viper 2000-już nawet nie pamiętam nazwy ! To były grafy! hehe212.186.148.* napisał:
Ajt Nic dodać, nic ująć. Zapomniałes o 3Ti
80.55.134.* napisał:
moze sprecyzuje mam na mysli serie FX sam mialem tesz S3 G-Force 256 , GForfce 2Ti jak kosztowala jakies 1200 pln , teraz mam ATi i jestem zadowoolony (a mialo pasc na 5900xt) ...jesli kogos urazile to sroka
195.116.24.* napisał:
e tam o co te klutnie ?? przeciez to nie ma znaczenia dla koncowego uzytkownika czy jest 2x4 czy 1x8 czy 2x4x2 mnie to G.. obchodzi dla mnie sie liczy jak to dziala czy gry mi ladnie wygladaja i czy sa plynne i ile za to musialem zaplacic a jak rozwiazali to technologicznie to jest ich brocha.Niestety wiekszosc ludzi goni za Mhz/Ghz i w ogole lubia cyferki no a juz calkowitym przegieciem jest ile ktory chip ma tranzystorkow normalnie LOL
FX dziala wydajnie ? no jakos sobie radzi chyba ? wiec wlasciwie nacieli sie tylko ci co chcieli miec jakies tam marketingowe bzdety.
Dla mnie osobiscie nie jest wazne czy sterowniki sa optymalizowane pod jakas gre dla mnie wazne jest aby ta gra ddzialala dobrze a jesli to uzyskane jest kosztem programistycznym ?? a jakie to ma znaczenie jesli cel zostal osiagniety?
oczywiscie nie lubie jak sie nabija ludzi/mnie w butelke ale kto kupuje grafe dla jej architektury ??czy tranzystorow w niej zawartych ?
wiekszym przegieciem bylo porownanie PS3.0 do PS2.0 gdzie te 2.0 bylo 1.1
Podobne tematy
Działy
Copyright © 2002-2024 | Prywatność | Load: 4.33 | SQL: 1 | Uptime: 753 days, 11:01 h:m |
Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl