heh.pl
Kanał informacyjny Heh.pl


Czwartek 2 maja 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

NV35/NV38 i tylko 4 potoki.


80.55.43.* napisał:
Jan napisano w www.pclab.pl.

"W swoich oficjalnych prezentacjach dotyczących NV40 firma NVIDIA wreszcie przyznała się do architektury NV35/NV38: 4x2 (4 potoki renderujące, w każdym po dwie jednostki TMU)"

To by tlumaczylo takie kiepskie wyniki.
Dlatego karty nVidii (FX) maja takie duze zegary zeby dorownac kata ATI
Ciekawe czego sie dowiemy o NV40 po paru miesiacach.
Moze, ze tak naprawde karta ma 8 potokow icon_smile3.gif

83.30.5.* napisał:
To by tłumaczyło słabą wydajnosc w DX 9.0.

80.51.67.* napisał:
buahahaha

to moze moj efiks ma 2*2 ;]

83.26.11.* napisał:
nie wieze ze z nv 40 nv pozuciło wszyskie lolki na pewno nas z czyms w hu...robi

83.144.72.* napisał:



Zaden 4 potokowiec nie moze sie rownac z najsilniejszym 4 potokowcem NV icon_wink2.gif

83.144.72.* napisał:



Zaden 4 potokowiec nie moze sie rownac z najsilniejszym 4 potokowcem NV icon_wink2.gif

62.121.67.* napisał:
co z tego ze ma 4x2? Wychodzi na to samo przy uzyciu multiteksturowania co 8x1

80.53.124.* napisał:
nie jest to to samo , gdyby bylo to nikt by teraz nie robil 16x1 tylko np 4x4 2x8 itp

80.53.213.* napisał:
wow, jeśli przy 4x2 mają taką wydajność to ciekawe co by było przy 8x1 !!! ATI by padło

195.205.244.* napisał:
przy 8x1 nie wlazla by gabarytowo to PC-ta i potrzebowala malej elektrowni ... jajcarze z NV
no i wychodzi ze Radeon8500 tez jest 8 potokowy

80.55.210.* napisał:
Sorry, że wygrzebałem ten temat ale zacząłem zastanawiać się jak to jest z 5200/5600/5700??? Skoro 5900 to 4x2 to reszta jest 2x2??? Macie jakieś wieści na ten temat?

62.233.189.* napisał:
ja tego nie czytalem i ou fak! jestem pod wrazeniem,,, jako ze nv sprzedawala sprzet klamiac w specyfikacji mozna do niej odeslac uklady i zdac wymiany na conajmniej taki jak byl w specyfikacji?

fakac nvidię takiego wała, prosto w oczy

80.51.67.* napisał:
moze odesle swojego FX'a i zarzadam jakiegos FX5900 jako rekompensate ze straty ;]

80.55.134.* napisał:
ja swoja odeslalem i dostalem r9700 Hercules icon_wink2.gif

80.53.213.* napisał:
tak, ja po włączeniu AIDA32 mam napis o potokach - 4/2

80.55.134.* napisał:
zostaje tylko czekac i trzymac kciuki ze w nowych produktach bedzie wszystko OK.Troche konkurencji miedzy NV i ATI ,i o to chodzi, lepsze grafy no i przez co idzie tansze

217.99.133.* napisał:
Posiadacze Fx, noto jak niewidzieliscie w Aidzie, albo w rivatunerze ze Fx ma 4 potoki, i dopiero teraz gdy nvidia przyznala sie do 4 potokow, zauwazacie w Aidzie 4 potoki???

Kolejny argument, aby nieufac nvidii, olac ja z gory na dol. Byc moze Nv40 bedzie wydajnie good,ale co z tego jak za jakis rok, przyzna sie do kolejnego wala icon_confused2.gif

62.233.189.* napisał:
albo stiunuje driverki icon_smile3.gif

80.55.210.* napisał:
Jeśli Aida albo Riva tuner pokazuje 4/2 to czemu dopiero teraz się o tym mówi??? Czy żaden spec z szanujących się serwisów jak np. TH itp. nie zdziwił się widząc to w RivaTuner??? Hmm.

A co z FX 5200/5600/5700??? To, że w 5900XT pokazuje 4/2 to normalne bo jest na ostatnim chipie z serii FX NV38. Ale te niby 4 potokowce mają teraz 2/2??? Może to ktoś sprawdzić???

80.55.43.* napisał:
No i kup tu człowieku NV40 a po kilku miesiącach się okaże, że masza karta zakupiona za ciężkie pieniadze nie ma kilku rzeczy podanych na specyfikacji od producenta.

83.30.25.* napisał:

Pozostaje mi sie tylko zgodzic z Kolegą.

83.30.23.* napisał:


No ja wlasnie sprawdzilem i moj FX ma 4x1 uff bo juz myslalem , ze przesiadka z R9200 wyszla na marne icon_wink2.gif

213.17.132.* napisał:


Ręce opadają , ale dziwię się że wszyscy dopiero teraz o tym piszecie jak już Nvidia to oficjalnie potwierdziła. Nie ufać Nvidi!

Nie chce mi sie pisać , macie tu http://twojepc.pl/html/imperium_kontratakuje/porownanie.gif i jeszcze http://twojepc.pl/artykuly.php?id=nvidia_geforce_5200 .

217.113.228.* napisał:
Witam ponownie.
Sprawdziłem i co zobaczyłem icon_question.gif :
aida32(wersja 3.80)
-liczba potoków pikseli-8 i 1tmupotok
aida32(wersja 3.93)
-liczba potoków pikseli-4 i 2 tmupotok
icon_question.gif
Dziwne.
Co o tym myślicie?

83.30.64.* napisał:
Nvidia przestała sypać $$$ i w aidzie od razu ukazało się 4x2 icon_lol.gif

62.179.59.* napisał:
Że prawda wyszła na jaw. icon_biggrin3.gif

217.113.228.* napisał:
To nv wszędzie sypie $$$?
To chyba niepoważne stwierdzenie.

83.30.64.* napisał:

Dlaczego nie? Twoim zdaniem to przypadek, że w Aidzie ukazało się 4x2?

217.113.228.* napisał:
Nie mam pojęcia.
A tak przy okazji, pojawił się Painkiller, może porównamy wydajność naszych kart na tej gierce?
Zobaczymy jak radzą sobie w tym przypadku.

80.53.213.* napisał:
u mnie na max detalach gra chodzi płynniutko

217.113.228.* napisał:
Wiesz, mam też 5900xt i jak chodzi na tej karcie doskonale wiem.
Bardziej chodzi mi o konkurencję.Jutro sprawdzę na fraps'ie i podam wyniki.Do jutra może już ktoś zapoda wyniki z radeon'ów.
Dobranoc.

80.51.67.* napisał:
u mnie aida pokazala 4*1, ale nie mam najnowszej wersji icon_lol.gif moze w najnowszej zobacze 2*2 icon_lol.gif ogolnie nv-beach ma u mnie minuja o takiego -------------------------------------------- nastapna karta bedzie od ATI

217.113.228.* napisał:
Cyferki skaczą jak oszalałe icon_eek2.gif od 70 do 220 klatek/sek.Przeważnie 110-160.
Wyniki podałem w przybliżeniu.
Jak u Ciebie?

80.55.134.* napisał:
glupie gadanie z tymi testami fps w painkiller (gadnie wszystko na max) co na max ? wszystkie opje w grze ? rozumiem Antyaliasing 6x ? + cienie + trilinear ? taaa ? + jeszcze anizo 8x ? bleee
bzdura ...
trzeba najpierw "wykreowac" konfig do testow a potem cos myslec o jakis wynikach

82.160.24.* napisał:
Nie no to juz jest niezły wałek z kartami nV... jak tak mozna było polecieć w kulki z nami klientami ?icon_neutral3.gif

217.113.228.* napisał:
Ktos farmazona walnął i teraz wszyscy się tego czepili jak rzep psiego ogona.A jeśli chodzi o wydajność....

80.51.67.* napisał:


... to jest rzenujaca jak an karte ktora kosztowala w pazdzierniku 700pln !!

217.113.228.* napisał:
Jeśli chodzi o wydajność 5900xt to jest na poziomie radeona9700 a często go troszeczkę przewyższa, więc takie biadolenie jest bezsensowne.

83.30.22.* napisał:


Znow mi sie przypominaja twoje posty w topicu o FarCry jak czytam takie rzeczy . Nie masz sie co czarowac cala seria FX nie jest na najwyzszym poziomie ! A twoje porownanie do 9700 jest bez sensu bo cena to ten twoj Fix to jest porwnywalny do 9800SE9800Pro a od niego to on dostaje po [gluteus maximus] ze hej .

83.30.18.* napisał:

Chyba ceną laugh.gif

80.55.210.* napisał:
Wiesz? Tu już o wydajność nie chodzi bo nie jest zła (oczywiście poniżej DX9 icon_wink3.gif ). Chodzi o te wałki jakimi nVidia karmi swoich wielbicieli! icon_evil.gif Nie jest to miłe jak po roku dowiadujesz się o czymś takim. A ciekawe co byś nam powiedział jakby okazało się, że PS2.0 tak naprawde nie ma tylko jest on wykonywany jakimiś trickami PS1.1??? I co wtedy? Miło by Ci było, że uwierzyłeś w piękną reklame nVidii??? To tylko przykład więc się tym nie sugerujcie ale tak się nie robi! icon_confused2.gif

80.55.134.* napisał:


zapomniales dodac z ta wydajnoscia, ze jakosc generowanej grafiki jest zenujaca ... na gf5900xt
uzyskaj jakosc grafiki jak na Radku i wyniki odziwo spadaja o 30 %

80.55.43.* napisał:


Radeon 9700......rdzeń...275Mhz......pamieć.....550Mhz
GF FX5900XT......rdzeń...400Mhz......pamieć.....700Mhz

Chyba widac dlaczego FX jest na poziomie 9700.
Sam widzisz jak bardzo musi nadrabiać ta karta Mhz żeby dorównać 9700.
Radeon wykręcony do takich parametrów bije na głowę FXa.

82.143.131.* napisał:
To nieprawda ze FX maja architeketre 2x2/4x2. Gdyby tak bylo uwidoczniloby sie to chociazby w 3DMarku przy pojedynczym teksturowaniu, a roznice w grach bylyby dalece wieksze w porownaniu do Radeonow. Zreszta wystarczy popatrzec na liczbe tranzystorow w FX - na cos te miliony w koncu sa i tym czyms sa wlasnie potoki. Wzglednie nizsza wydajnosc FX "zawdzieczaja" bardzo glebokiemu potokowi; w polaczeniu z nie najlepsza predykcja skokow takie rozwiazanie znacznie obniza wydajnosc (przypomnijcie sobie pierwsze P4 Willamette - jaka zenujaca wydajnosc mialy w porownaniu do Athlonow nawet przy zegarze 2 GHz), stad nVida musiala zastosowac wyzsze taktowanie aby wyrownac straty.

217.113.228.* napisał:
[/quote]Radeon 9700......rdzeń...275Mhz......pamieć.....550Mhz
GF FX5900XT......rdzeń...400Mhz......pamieć.....700Mhz

Chyba widac dlaczego FX jest na poziomie 9700.
Sam widzisz jak bardzo musi nadrabiać ta karta Mhz żeby dorównać 9700.
Radeon wykręcony do takich parametrów bije na głowę FXa.[/quote]

Jak 9700 tak podkręcisz to spłonie laugh.gif
Ja mogę spokojnie przerobić na 5950ultra.
Pamięci pracowały na 950Mhz a radiatory nawet się porządnie nie zagrzały.
To jeśli chodzi o przetaktowywanie kart.

82.143.131.* napisał:

Wiec sprobuj podkrecic Radeona do TAKICH parametrow icon_biggrin3.gif
Jest to bardzo trudne ze wzgledu na krotkie potoki u Ati. Analogiczna sytuacje mamy u procesorow - Athlon XP 3200+ jest taktowany 1GHz nizej niz P4 3,2GHz, mimo iz wydajnosciowo nawiazuje z nim walke (wprowadzenie rdzenia Northwood, szyny 800MHz, obslugi HT i dwukanalowych kontrolerow pamieci DDR400 nieco zmienilo stan rzeczy na korzysc Intela). Tak wiec kazdy producent ma swoje rozwiazania, a nam pozostaje tylko sie z tego cieszyc.

83.30.28.* napisał:


laugh.gif laugh.gif laugh.gif No i co z tego ? No chyba , ze jak ty widzisz te 950Mhz na pamieciach to ci oczy przyspieszaja i widzisz wiecej FPS icon_biggrin3.gif W przetaktowaniu kart nie chodzi o zdobycie jak najwiekszej ilosci Mhz tylko wydajnosci . Co z tego ze masz 950Mhz na pamieciach jak radek ktory ma 680 jest szybszy icon_biggrin3.gif

82.143.131.* napisał:

Sprawdz sobie wydajnosc GeForcaFX 5950 Ultra w porowaniu do Radeona 9700 Pro i sobie uzmyslowisz CO daje przerobienie GFFX 5900XT na 5950 Ultra icon_biggrin3.gif To nie tylko MHz, to czysta moc! Tym bardziej ze po przerobieniu dziala W PELNI jako 5950 Ultra, a dzieki zmienionym timingom pamieci mozna je jeszcze bardziej podkrecic. Nie zapominaj ze wiekszosc kart graficznych jest ograniczana przepustowoscia pamieci, a niewatpliwie MHz ja zwiekszaja. icon_biggrin3.gif

80.55.38.* napisał:
ktoś coś mówił ze karty Ati sie żle podkręcają icon_question.gif niech kliknie w mój link do compare icon_rolleyes.gif , z karty nowej genarecji R360 wycisne i 1GHz z pamięci jak będzie dobra

193.110.229.* napisał:
[b] qqrydza, HeatFighter - spokojniej, bo jak nie...

80.53.213.* napisał:


owszem to jest najlepsze wyjście, ale nie w pełni, bo 5950Ultra ma 256 MB pamięci RAM, a XT "tylko" 128 MB

80.55.43.* napisał:


Co nie zmienia faktu, że masz nadal 4 potokową kartę icon_lol.gif
Moja karta kupiona za 899zł podkręcona do 390/700
nie wiele ustępuje FX5900XT5950 którego zegary są o wiele wiele wiele większe.
A wiesz dlaczego bo Radeon ma 8 potokow a nie 4.

80.54.176.* napisał:
Nie wypowiem się w temacie wydajności, bo sprawa jest oczywista icon_lol.gif
qqrydza icon_arrow.gif pracujesz na bana, już dziś twoje bezsensowne topiki wylądowały na śmieciach, teraz siejesz zamieszanie, nie będziemy tego dalej tolerować icon_evil.gif

80.55.210.* napisał:


1. A na czym opierasz swoją tezę, że to nie prawda? Przecież na prezentacji NV40 sama nVidia się do tego przyznała. Po prezentacji wszystkie nowe programy do wykrywania pokazują 4*2 a nie tak jak do premiery 8*1. Czy dalej nie możesz uwierzyć w to, że tak uwielbiana przez Ciebie firma wykręciła taki numer?

2. Widocznie 3DMarka można łatwo oszukać! Może nVidia zastosowała trick z virtualnymi potokami?? Kto wie??

3. Tak. Liczba tranzystorów miażdży! Tylko na co poszły te tranzystory? Na zwiększony pobór energii??? Historia lubi się powtarzać. Teraz też nVidia ma więcej tranzystorów bo aż 220milionów icon_eek2.gif icon_eek2.gif przeciwko 180mln ATI. I co wszystkie serwisy trąbią??? Że chip R420 jest wydajniejszy! icon_cool3.gif

Reasumując mam wrażenie, że lubisz duże liczby! Coś jak posiadacze Celeronów! icon_smile3.gif Nie ilość świadczy o wydajności tylko jakość! icon_wink3.gif

80.55.134.* napisał:
taaa Nvidia przypomina po trochu Balerona Intelowskiego
placisz za NazVe i numerek a dostajesz QPE

82.143.131.* napisał:

Tak sie zastanawiam czy przypadkiem ogloszenie ze chipy NV3x maja architekture 4x2 nie jest zabiegiem czysto marketingowym ze strony nVidii, w koncu teraz moga powiedziec ze "NV40 ma 4x wiecej potokow" no i sie bedzie lepiej sprzedawal. Kto zreszta to wie, jesli rzeczywiscie maja 2 razy mniej potokow to emulacja musi nastepowac na poziomie sprzetowym, bo nawet tricki w BIOSie by nie pomogly. Nie jestem bynajmniej "milosnikiem" nVidii; mialem juz karty S3, Ati i nVidii i moge cos powiedziec o tych firmach. Bardzo sie ciesze ze w koncu Ati robi dobre karty, dzieki temu rozwija sie rynek. I nie porownuj produktow nVidii do Celerona, bo to byl bubel od poczatku, a wystarczy sobie przypomniec jak powalajacy byl pierwszy GeForce gdy sie pokazal jesienia 1999 roku. W zasadzie tylko GeForcy, GeForcy 2 i GeForcy 4 Ti byly udane, ale gdyby Ati nie wypuscilo Radeonow 9500/9700/9800 to nadal uwazalibysmy ze wszystkie serie GeForcow sa rewelacyjne. A tak zawsze mamy wybor. icon_wink2.gif

83.16.22.* napisał:
No widzisz. Teraz to się z Tobą zgadzam. icon_wink2.gif Ja i tak wole S3. Miałem Savage4 i Viper 2000-już nawet nie pamiętam nazwy icon_cool3.gif ! To były grafy! icon_wink3.gif hehe

212.186.148.* napisał:


Ajt icon_smile3.gif Nic dodać, nic ująć. Zapomniałes o 3Ti icon_wink2.gif

80.55.134.* napisał:
moze sprecyzuje mam na mysli serie FX sam mialem tesz S3 G-Force 256 , GForfce 2Ti jak kosztowala jakies 1200 pln , teraz mam ATi i jestem zadowoolony (a mialo pasc na 5900xt) ...
jesli kogos urazile to sroka icon_smile3.gif

195.116.24.* napisał:
e tam o co te klutnie ?? przeciez to nie ma znaczenia dla koncowego uzytkownika czy jest 2x4 czy 1x8 czy 2x4x2 mnie to G.. obchodzi dla mnie sie liczy jak to dziala czy gry mi ladnie wygladaja i czy sa plynne i ile za to musialem zaplacic a jak rozwiazali to technologicznie to jest ich brocha.
Niestety wiekszosc ludzi goni za Mhz/Ghz i w ogole lubia cyferki icon_biggrin3.gif no a juz calkowitym przegieciem jest ile ktory chip ma tranzystorkow normalnie LOL

FX dziala wydajnie ? no jakos sobie radzi chyba ? wiec wlasciwie nacieli sie tylko ci co chcieli miec jakies tam marketingowe bzdety.
Dla mnie osobiscie nie jest wazne czy sterowniki sa optymalizowane pod jakas gre dla mnie wazne jest aby ta gra ddzialala dobrze a jesli to uzyskane jest kosztem programistycznym ?? a jakie to ma znaczenie jesli cel zostal osiagniety?
oczywiscie nie lubie jak sie nabija ludzi/mnie w butelke ale kto kupuje grafe dla jej architektury ??czy tranzystorow w niej zawartych ?
wiekszym przegieciem bylo porownanie PS3.0 do PS2.0 gdzie te 2.0 bylo 1.1

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 2.35 | SQL: 1 | Uptime: 42 days, 4:22 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl