heh.pl
Kanał informacyjny Heh.pl


Niedziela 22 grudnia 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

NV40 & R420


83.31.129.* napisał:
No to mamy pierwsze zdjecia NV40...

user posted image

user posted image

Musze przyznac ze po zobaczeniu rdzenia od NV30 i R300 myslalem ze sa gigantyczne ale ta karta ma po prostu arcyogromny... icon_eek2.gif

Nie wiem jak wam, ale mi jak sie podobal NV30 tak podoba mi sie NV40 icon_cool3.gif

Ati dalej powinno uczyc sie od nv jak zrobic porzadne pcb icon_mrgreen.gif

Sa takze 1 plotki:
http://www.theinquirer.net/?article=14878

Mam nadzieje ze nie jest to prawda bo hegemonia ati moze nam mocno zaszkodzic...

62.179.17.* napisał:
Czekaj, czekaj niech no tylko r420 pokaza. : P

83.25.232.* napisał:
Sliczna hehe, geforce rox icon_smile3.gif

150.254.39.* napisał:
http://www.pcinpact.com/actu/news/13588.htm

Karta ma 2 (DWA!!!) wyjścia na moleksy 12V - chyba trzeba będzie zasiłki 550W icon_biggrin3.gif.

62.233.182.* napisał:
przerost formy nad trescia icon_razz.gif

83.30.19.* napisał:
Tak a w komplecie z kartą będzie zasilacz 420W icon_lol.gif

217.113.228.* napisał:
Fajne. Ciekawe jakie bedzie chlodzonko otes czy coś?
No ale najbardziej to ciekawy jestem jak bedzie wypadac w gierkach i w benchmarkach biorąc pod uwagę r420.

Juz niedlugo będzie cos wiecej wiadomo ale nie wiem jak was ale mnie najbardziej interesuje jakie karty zrobi nvidia dal mniej zamoznych uzytkownikow następcy kart ( fx5200 i fx5500 i troche bardziej zamoznych 5600 i 5700)

83.30.26.* napisał:
Piękna sprawa, zapewne „mega” droga na dzień dobry. Co do zasilania to chyba troszkę przesadzają, zasilacz odpowiedniej klasy jest niezbędny.

Jednak chyba wszystko powinno dążyć ku zmniejszeniu apetytu na prąd a tu takie coś. Nie zdziwię się jak nowe karty ATI na chipie R420 również będą w taki sposób zasilane.

pozdr.

213.76.236.* napisał:


Nie wiem czego ma sie uczyc. NV dla 256MB potezebuje 16 kostek pamieci, ATI tylko 8 (ja na chlodzenia ramkow FXa 5950 musialem zuzyc 8 radiatorow, dla R9800XT wystraczyly 4). PCB jest koorewsko wielkie, ATI stosuje znacznie prostsze plytki 8 vs 10 warstw i do tego prostsze bloki zasilajace. Jedyna zaleta plytek NV jest to ze faktycznie latwiej na nie wkomponowac jakies wlasne chlodzonko bo ATi z upakowanym PCB wyglada niemrawo, ale wszak nikt nie bedzie robil plytki pod katem latwiejszych modingow. Choc z drugiej strony np voltmody na ATI to pryszcz w porownaniu do NV. W biznesie liczy sie stosunek koszt efekt, a ten jest znacznie lepszy u ATI.
Jakbys musial dziennie przekladac grafe do kilku plyt glownych, dziesiatki razy przekladac pamieci to bys docenil zalety krootkiej plytki. Na niektore poprosty dluuga NV moze wrecz nie wejsc (byla taka pltka MSI na VIA, nie pamietam nazwy).

83.30.19.* napisał:


Zgadza sie.Niedługo karty NV dogonią długością ostatniego z Voodoo icon_lol.gif

83.31.97.* napisał:
No jak juz sa foty to jakies pierwsze testy powinni wypuscic.. Zastanawia mnei jakie bedzie ati.. Jak zwykle pewnie.. Szybsze i tansze..

83.30.26.* napisał:


Z pierwszą tezą może się zgodzę ale z drugą nie do końca.
Najlepszy przykład, dzisiejsze ceny hurtowe:

H.I.S. Radeon 9600XT - 915zl brutto.
Sparkle FX5900XT - 900zł brutto.

Wydajnościowo wiadomo jak jest z tymi dwoma modelami, tak więc z tymi tańszymi ATI nie zawsze tak kolorowo....

pozdr.

83.30.19.* napisał:


No tak tylko za 900zł to można sie jeszcze załąpać na R9700 a za 600-650zł można kupić nowego R9600PRO.

83.30.26.* napisał:
Tak, polowanie na 9700 jak dla mnie bez sensu, chodziło mi o to co można kupić dzisiaj na bieżąco.
Radek 9600pro owszem, tylko to w końcu tylko 4 potoki i 128 bitowiec. A mnie chodziło o to że 9600XT jest droższy od FX5900XT - jakby nie było, co wynika z cennika icon_wink2.gif

pozdr.

83.26.19.* napisał:
Ciekawe jakiego chlodzenia bedzie wymagala i czym nas potraktuja Gainward, MSI itp. (ceny icon_biggrin3.gif )

P.S Jak ktos bedzie mial linki do testow niech wrzuca

83.30.19.* napisał:
Tak bez szukania to tylko taki wybór.Ale jakby troche sie rozejżeć to sie kupi w sklepi jeszcze nówke R9700
http://sklep.benchmark.pl/pelny_9526.html
albo
http://www.apollo.pl/do_cmd_win.php?menu=store&grp=20&id=10603&cmd=show_detail
wystarczy tylko poszukać.Wiadomo że R9700 to "wymierający gatunek" i ciężko go dostac ale kto szuka nie błądzi icon_biggrin3.gif

83.30.26.* napisał:


Tiak, w sklepie benchmarka 1000zł to taka sobie cena za 9700 zwlaszcza że to chyba wersja bez BOX'a. Sporo ciekawych kart jest na allegro, tylko nie zawsze to co piszą w opisie aukcji przekłada się na rzeczywistość.

pozdrawiam.

83.30.19.* napisał:


Tak w benchmark.pl jest drogo a allegro to syf.Ale przyznasz że ten Herkules R9700 na apollo.pl za 950zł to nieała okazja icon_cool3.gif

80.53.138.* napisał:
Wydaje mi się, że tu jest większa okazja http://www.pcprojekt.pl/index.php?c=katalog_produktow&v=d&i=1203 icon_wink3.gif

83.30.13.* napisał:
Uklad pamieci jak w Parheli. Oby i wydajnosc nie byla taka sama icon_razz.gif

213.76.236.* napisał:
Taki sam uklad jest w FXach 59xx

80.133.158.* napisał:
nawet nVdia musi oszczedzac icon_lol.gif
a widzieliscie gdzies jakies fotki... r420 icon_question.gif

83.31.128.* napisał:
Wole nv za to ze latwiej jest zalozyc na nie duze chlodzenie.

Co do calej reszty - zgadzam sie w calej rozciaglosci


Zobaczymy co z tego bedzie..

83.31.128.* napisał:


byly ale w ubranku (radiatory itd)

83.27.2.* napisał:
no to prawda ze wlasne chlodzonko mozna latwo wpakowac - 1 bloczek na gpu i 2 taki fajniutki na pamiatki i krecenie ;]]]] mam nadzieje ze nv wreszcie skopie pupy ati;]]]]]
jestem tak zatwardzialy ze az sam w to nie wierze;]]

217.96.46.* napisał:
http://www.gzeasy.com/newsphoto/y2k4/03/24/NVIDIA.jpg

- NV40 w I kwartale 04 i bedzie prawdopodobnie nosil nazwe FX6000

http://www.gzeasy.com/newsphoto/y2k4/03/24/ati.jpg

- ATI R9900 - I kwartal '04

80.53.11.* napisał:


Ja też! Ciekawie by się prezentowały wtedy ceny icon_twisted.gif

217.82.203.* napisał:
przed chwila zauwarzylem... ah sami zobaczcie

http://www.3dcenter.de/artikel/2004/03-23_a.php

153.19.198.* napisał:
A ja się zakładam o 38 butelek po piwie, które u mnie w szafie stoja, że Ati skopie po raz kolejny tyłek nV i to jeszcze bardziej niż poprzednio.
Btw - od kiedy to wieksza płytka oznacza , że jest lepsza?Ktoś widzę się przymierza jednak do smażenia jajek w kompie icon_razz.gifP.

213.199.220.* napisał:
Fajnie wyglada ale co bedziemy sie tuaj wyglądem podniecać... ważne co pokaże wydajnością i tylko to w wiekszości sie liczy... icon_confused2.gif

83.28.12.* napisał:
Wiem że ja się nie znam, ale jeśli dobrze kumam to studiuję elektronikę. Tak więc powala mnie pomysłowość z 2 MOLEXami, czyżby NV przewidywała dorzucenie gratisowo oddzielnego zasilacza do karty, który podłączamy niezależnie do sieci? Bo nie widzę sensu dokłądania drugiego złącza jak i tak wszystko leci tymi samymi kabelkami od zasilacza laugh.gif

80.53.236.* napisał:
Jak dla mnie to jest ogolnie pic na wode to zdjecie. Nie ma oficjalnego potwierdzenia, ze fotka jest autentyczna, wiec czym sie tu podniecac...? Zobaczymy....

217.96.46.* napisał:


Ta fota jest prawdziwa - potwierdzil to naczelny pewnej stronki, ktory widzial ta karte na zywca podczas regorocznego Cebitu

80.53.236.* napisał:
W takim razie zwracam wiec honor, ale jednak dziwi mnie obecnosc dwoch zlacz molex na karcie, podobnie jak jednego z przedmowcow. Pozdro!

PS. Mozesz mi podac adres tej stronki? Chetnie poczytam...

83.30.19.* napisał:


Ja dożuce jeszcze moje butelki icon_biggrin3.gif

213.76.135.* napisał:



w/g mnie a nie studiuje elektroniki dwa molexy sa po to by rozdzielic duze natezenie pradu jakie moglo by plynać przez jedno gniazdo i uhcronic sciezki na PCB przed nagrzaniem sie i wypaleniem

jak rowniez bedą to dwa osobne obwody zasilajace uklady logiczne karty a nie jeden,

mozna zapytac no dobra ale dlaczego z jednego molexa nie mozna wyprowadzic n liczbe sciezek? moze dlatego jest to spowodowane ograniczeniami konstrukcyjnymi tj. bliskossc wzgledem wiekszych sciezek pradowych, rozmieszczenie stabilizatorow, kondensatorow itd.

ja to tak rozumuje
pozdro

80.53.138.* napisał:
To ja Ci to wyjaśnie. icon_biggrin3.gif

Jeden molex jest do zasilania GPU z zasiłki z budy. Drugi molex jest do zasilamia pamięci i do niego dostajesz oryginalny zasilacz od nVidii! icon_wink3.gif laugh.gif

A tak poważnie to możesz mieć racje. Ograniczenia PCB i ścieżek -->> konieczność zastosowania drugiego molexa! Ehh. A miniaturyzacja układów miała pociągnąć obniżenie poboru prądu! icon_confused2.gif

83.28.9.* napisał:
Może jest coś w tym logiki co kolega napisał, ale rozdzielenie obwodów może się odbyć w dowolnym momencie. Jeżeli chodzi o przepalenie to wystarczy zwiększyć szerokość ścieżek co może polepszyć tylko sytuację. Jeśli kolega wpadnie na pomysł że widać nie ma miejsca dlatego tak zrobili to podpowiem że karty graficzne jak i inne rzeczy są zwykle robione jako wielowarstwowe PCB. Na każdym PCB znajduje się conajmniej jedna warstwa na której mamy ogromnych rozmiarów mase którą można zawsze pomniejszyć. Między warstwami są robione otwory metalizowane które łączą je między sobą. tak więc defakto starczy jeden molex. Wszysstkie ścieżki są "prądowe" tak na marginesie bo innych nie ma, no chyba że ktoś widział światłowodowe łącza lub podprzestrzenne między elementami na karcie icon_wink3.gif W najgorszym przypadku mogą dużą rolę odgrywać zjawiska falowe ale to jest inna bajka. Dodatkowo aby zmniejszyć koszta produkcji karty raczej się minimalizuje ilość elementów, obniża to koszty produkcji jak i koszta elementów (zawsze jest tańszy większy jeden niż mniejsze 2). No dobra nie chce mi się dlaej pisać na ten temat. Generalnie uważam że nVidia ma szanse teraz zrobić coś dobrego bo ten FX nijak się nie miał do renomy którą zdobyła firma poprzez wcześniejsze modele. Ma szanse bo dała ciała i logika nakazuje zrobienie czegoś wyjątkowo dobrego. Mam nadzieję że tak się stanie, bo im krwawsze walki miezy układami kolejnych firm, tym mniejsza ich cena żeby skłonić do zakupu.

Wpadłem na pomysł właśnie w tej chwili, idąc dalej tokiem rozumowania który zaproponował kolega, możemy się spodziewać niedługo kłębka molexów do zasilania każdego elementu na karcie icon_smile3.gif

P.S.
Te żarty nie są bynajmniej do tego aby w jakiś sposób ci umniejszyć, ale jest to ciekawy punkt widzenia icon_smile3.gif i nie ukrywam że chętnie bym się dowiedział dlaczego takie coś zrobiono

83.27.11.* napisał:
ja nie wiem wy chyba wszyscy macie jakas manie-uprzedzenie do nv ze jest grzejnikiem
co wam to przeszkadza te 170mln tranzystorow czyms trzeba dovoltowac do tego jeszcze pamieci dochadza no i zbiera troche, mi to w ogole nie przeszkadza wole 2 molexy pod grafe podpiac niz wykozystac je na jakies glupie swiecidełka;]]
dla mnie karta i tak juz jest do przodu ze wzglegu na ps3 ktorego ati nie ma - juz widze tlumaczenia ati ze dopracowali ps2 do granic mozliwosci i bla bla bla
powinni testy w doomie 3 zrobic jakos - wtedy zobaczymy co lepsze;]]

212.182.122.* napisał:


LOL jakie niby tam gigantyczne prądy płynał ??
na przewodzie zasilaczowym(molex) loozniutko czajnik elektryczny moze chodzic bez problemu a on pobiera ok 2000W , wiec jaki problem z głupią karta ??? pobierajaca moze 60W

195.205.124.* napisał:
1. "Do chłodzenia układu wystarczy aluminiowy radiator - nie potrzeba stosować radiatorów miedzianych. Karty będą dzięki temu znacznie lżejsze od GeForce FX 5800 Ultra, 5900 Ultra czy 5950 Ultra. NVIDIA dostałą nauczkę przy okazji GeForce FX 5800 Ultra i ma teraz świadomość, że głośne systemy chłodzenia nie są tym, czego oczekują konsumenci. NV40 będzie chłodzony przez bardzo cichy wiatraczek." (okaże się :])
2. "Karty NV40 będą bardzo prądożerne i wymagać będą aż dwóch gniazdek zasilających - podobnie, jak to ma miejsce w przypadku Volari Duo V8. Zapytaliśmy, czy podwójne gniazdka zasilania znajdą się na kartach w wersji finalnej, czy może obecne są tylko na prototypie karty. Otrzymaliśmy odpowiedź, że NV40 konsumować będzie dużo prądu i wymagać będzie dwóch gniazd zasilających. "Jeśli kogoś stać na NV40, to na pewno będzie go też stać na porządną obudowę i silny zasilacz" - dodał nasz rozmówca, pracownik NVIDII." (ta mentalność mnie dobija)
3. "Układ NV40 zbudowany będzie z ponad 200 milionów tranzystorów (nie podano nam dokładnej liczby) i udostępniać będzie sprzętowe jednostki Pixel Shader 3.0 oraz Vertex Shader 3.0. Dla porównania, nadchodzące układy graficzne ATI pozbawione będą jednostek PS 3.0 i VS 3.0." (realna wydajność to się okaże w grach - i tak przeważnie jest tak, że pierwsza generacja kart obsługująca nowe efekty; tutaj PS 3.0 i VS 3.0 nie poradzi sobie dobrze z grami wykorzystującymi to, ale za to będzie można grać w gry dx9 z aa i anizo :>)
4."Ponoć gdy chip zostanie oficjalnie zaprezentowany, NVIDIA opublikuje liczbę potoków renderujących. Choć nie zdradzono nam jej dokładnej liczby, to ma być ich więcej niż osiem. Domyślać się można, że będzie ich szesnaście. Natomiast w niektórych przypadkach NV40 będzie potrafił przetwarzać nawet 32 piksele na cykl zegara." (im więcej tym lepiej icon_smile3.gif)
5. "Przedstawiciele NVIDII twierdzą, że NV40 zmiażdży nie tylko NV38 (GeForce FX 5950 Ultra), od którego ma być szybszy w niektórych przypadkach nawet do ośmiu razy, ale także nadchodzące układy ATI. Wiadomo, że obie firmy straszą się teraz wzajemnie. Która wygra bitwę, przekonamy się dopiero wtedy, gdy nowe układy graficzne ukażą się na rynku."

Pożyjemy zobaczymy!

83.28.7.* napisał:
Mi się karta generalnie podoba, a specyfikacja jest rewelacyjna. Z niecierpliwością czekam na wyniki jej działania. Narazie się nie zabieram za zmianę karty której jeszcze nie mam (jutro ma dopiero przyjść) ale jeśli konkurencja wypadnie gożej to nie ma mowy żebym obstawał przy obecnym producencie. Grafika to nie partia polityczna, nikt cie nie przegoni za zmianę producenta. Choć i w polityce jak widać zachodzą zmiany, tam gdzie więcej dadzą kasy tam się stare gemby pojawiają icon_confused2.gif więc czym tu się podniecać icon_smile3.gif kupię to co lepsze za te same pieniądze:)

213.76.236.* napisał:


FX ma PS 2.0+ a Radion tylko 2.0, a co z tego wyniklo widac dzis. Same efektyto nie wszystko , trza to jeszcze jakos polaczyc.

217.113.228.* napisał:
Tak sobie zaczełem szukać informacji o NV40 i na pewnej stronie (chyba benchmark.pl) znalazłem wyniki NV40 w 3DMarku 2001. Mają one sięgać 37 tysięcy.icon_eek2.gif Nie bujam. Te wyniki są podane przez jakiegoś gościa z Nvidi który testował przedpremierową wersję tej karty. Boję się troche o Nvidie że się zmęczy jak będzie musiała sprzątać po nowym Radku. icon_twisted.gif

80.53.11.* napisał:


http://forum./viewtopic.php?t=66297

213.76.135.* napisał:


nie miałem na mysli linek od zasilacza tylko śćieżek na pcb.

62.121.67.* napisał:
moze i ps3.0 nie jest potrzebny ale tlumaczenie ATI jest kompletnie bez sensu. Kiedy wprowadzano 9700PRO z PS2.0 tez nie bylo produktow go oblugujacych, zawsze jest tak, ze najpierw sprzet pozniej oprogramowanie

80.133.154.* napisał:

tak...
tylko ze nV niemoze sobie jeszcze poradzic z PS2.0 a wprowadza juz PS3.0 icon_rolleyes.gif icon_confused2.gif

83.30.0.* napisał:
Tutaj macie pare testow NV40
http://babelfish.altavista.com/babelfish/urltrurl?lp=ko_en&url=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2F%3Fimode%3Dview%26D%3D6%26num%3D50157%26category%3D33

80.50.236.* napisał:

Te "testy" są na głównej od czterech icon_question.gif dni icon_confused2.gif

80.53.11.* napisał:


No właśnie ATI wprowadziło PS2.0 a do tej pory mało jest gier które go wykorzystują(na szczęście ich liczba szybko rośnie icon_wink3.gif ) a to w ok 2 lata po premierze icon_exclaim.gif icon_biggrin3.gif Jeszcze dobrze nie są wykorzystywane możliwości DX 9.0 a tutaj... Może ten "kop" od nVidii (w postaci PS 3.0) zmobilizuje twórców gier do tworzenia aplikacji pod PS 2.0?
Czy może widząc wydajność FX-ów (nie piszę tego z ironią,złośliwością itd.) będą się skupiać na 3.0 bo przy 2.0 gracze będą mięli
"mniejszą radość" będącej przyczyną lagów icon_evil.gif A dla ok 50% (powiedzmy)posiadaczy kompów-z kartami od ATI- nie opłaci się tworzyć pod DX 9.0?

80.50.236.* napisał:
Nie wiem jak będzie, narazie do jakichkolwiek informacji podchodzę sceptycznie, ale szczerze mówiąc jeśli NV wypuści dobre karty, to z chęcią zakupie ich produkt, choćby tak dla zmiany... icon_cool3.gif

212.182.122.* napisał:


ale zarówno przy 1 molexie jak i 2 mozna od gniazda na karce poprowadzic dowolna liczbe sciezek np od - i + moga isc cienkie (male) 2sciezki jak i 2 duze lub 5 malych i na tosamo wyjdzie lub 2 bydlackie , nie wogole nie kumam pomyslu na 2 molexy

80.53.138.* napisał:


Dokładnie. Wcześniej miałem GF2MX. Potem kupiłem 9500Pro. Następnie pojawiła się nVidia 5900XT. Licząc, że jest w dobrej cenie kupiłem ją. Ale okazała się za słaba dla tego powróciłem spowrotem do ATI.

I tak jak kucyk mówi. Grafe kupujemy dla wydajności a nie pudełka czy z zamiłowania do danej fagi! icon_wink3.gif Jeśli tym razem będzie lepsza nVidia chętnie ją kupię! icon_cool3.gif

83.31.129.* napisał:
Podobno nvidia oficjalnie powiedziala za NV40 ma 16 potokow normlanie i moze do 32 miec emulujac. (modlmy sie z nvidia ze maja racje icon_mrgreen.gificon_lol.gif)

83.30.29.* napisał:
no tez juz o tym czytalem w paru zrodlach i zanosi sie na to ze to chyba bedzie prawda... oby icon_biggrin3.gif

82.139.8.* napisał:


A ja czytałem ,że wręcz przeciwnie. Tak naprawde(podobno) ma 8 a jakimś trikiem uzyskuje 16. icon_wink2.gif
Poczekamy zobaczymy...

83.31.156.* napisał:
bylo to wczesniej mowione ale teraz mowia o 16/32


zobaczymy za 3 tyg

217.97.6.* napisał:
tak jak super wydajny ps 2.0 :> a raczej emulowany icon_wink.gif

153.19.198.* napisał:
Tak sobie czytam te posty i nie rozumiem 2 rzeczy:
1)Tych podwójnych molexów.
2)Podniecania się PS 3,0

Co do punktu 1 to sie nie będę wypowiadał, bo nie ma po co strzelać.
Co do punktu 2 - to w sumie pytanie do fanów nV - co za różnica, jaki numerek ma PS i VS, jeśli nie działa, albo działa żałośnie?Ati jakoś nie wprowadza PS 3,0, bo najwidoczniej nie uważa, żeby było konieczne, albo nie mają dopracowane i nie chcą bubli jak nV odstawiać.

Co do tych 16/32 i 37k w 3dsmarku - big lol x 10000
btw - kiedy te grafy wychodzą do pierwszych oficjalnych testów i kiedy będę mogł ze stołka ze śmiechu spaść?Czekam z niecierpliwościa icon_biggrin3.gif

62.121.67.* napisał:


no prosze NV raz miala wpadke z PS 2.0 i juz z gory zakladasz ze tak bedzie z PS 3.0 zaloze sie ze gdyby sytacja byla na odwrot tzn. ATI mialo PS3.0 to bys mowil ze jest wypasne i zmiazdzy NV z PS 2.0. A i naucz sie odrozniac PS od VS bo VS 2.0 dziala dobrze.

153.19.198.* napisał:
Na PS to nV miało wpdakę może i raz.Ale ogólnie ilość wszystkich "wpadek" nV to jest dużo większa i wszyscy o tym wiemy.
Ja do nV uprzedzony nie jestem, sam miałem jakiś czas Ti4200 i byłem happy.Ale jak ktoś lipę odstawia , to trzeba o tym mówić jasno i nie szukać wymówek.

83.29.242.* napisał:


Podejrzewam, ze nvidia zamiescila sprzetowe optymalizacje ( ciezej wykryc icon_lol.gif ) pod 3dmarki specjalnie : ) , a i tak w doopsko dostanie icon_biggrin3.gif icon_biggrin3.gif

83.29.242.* napisał:


a ty dane z kosmosu bierzesz : )
bo nie 2000 tylko ok 800
i skad wiesz, ze bedzie pobierała 60 W ?
Skoro dzisiejsze karty tyle zra !
LOL

icon_biggrin3.gif icon_biggrin3.gif icon_lol.gif

153.19.198.* napisał:
Ponawiam pytanko - kiedy wychodzą te demony wydajności?
Bo po wakacjach za jakieś 1500 zeta powiedzmy to bym sobit 9800Xt zapodał.Tylko najpierw PSU i ten ram nieszczęsny icon_sad2.gif(

83.29.242.* napisał:


Podejrzewam, ze nvidia zamiescila sprzetowe optymalizacje ( ciezej wykryc laugh.gif ) pod 3dmarki specjalnie : ) , a i tak w doopsko dostanie icon_biggrin3.gif icon_biggrin3.gif

80.54.32.* napisał:
mnie [color=red][ciach!][/color]o obchodzi jakie wyniki i po ile tysiecy punktów beda mialy te dwie grafy w 3dmarku....bo ich nigdy nie qpie dlatego mam to wszystko głęboko w [gluteus maximus] laugh.gif

62.121.67.* napisał:


te pozostale wpadki to? ATI mialo same wpadki do 8500 wlacznie i przekretami w sterownikach (slynny Q3) wiec juz nie przesadzaj z tym ze NV miala o wiele wiecej wpadek, bo praktycznie do serii 4Ti karty oferowaly zawsze maksymalna wydajnosc. To normalne ze raz jedna firma jest lepsza, a raz druga. R8500 mial 2 Vertex Shadery i wyzsze zegary a byl tylko troszke lepszy od GF3 ktory mial 1 vertexa i nizsze taktowanie, podobnie jak to ma miejsce teraz z FX i seria 9x00.

80.54.54.* napisał:
[quote]mnie [ciach!]
ja je kupię jak będą tanie i będę miał na nie kasę icon_cool3.gif

80.53.245.* napisał:
Panowie choć od kilku miesięcy w mym kompie pracuje karta ATI ( już druga ) to dalej mam sentyment do NVidi ,trzymajmy wszyscy kciuki za NVidię żeby znowu nie spaprała tak chucznie zapowiadanej karty , jeśli znowu dadzą [gluteus maximus] z wydajnościąi , jakością to ATI przejmie ponad 50% rynku a wtedy podwyżka Radeonów nieunikniona icon_sad2.gif
W chwili obecnej można gdybać ,ale i tak Radeony są najlepszymi kartami graficznymi na rynku i nie ma co siez tym sprzeczać
mam dostęp do sprzętu w hurtowni ,testowałem to i owo
jednak Radeony górą , oby NV40 był co najmniej o 50% szybszy od najszybszego obecnie radka ,to wtedy będzie równowaga icon_wink2.gif

83.30.26.* napisał:
Raven, wystarczy jedna flama z ATI w postaci R8500 aby obdzielic problemami wszystkie twory wszystkich firm produkujacych grafy icon_biggrin3.gif

153.19.198.* napisał:
Mnie w sumie wisi, która firma lepszą kartę zrobi.Jestem tylko bardzo sceptyczny co do nV, jeśli chodzi o zapowiedzi nowych produktów, bo takie bzdury opowiadają, że głowa mała.Na jakiejś konferencji, rok po wejściu na rynek R 9700 powiedzieli, że jako jedyni na rynku produkują karty z pełnym wsparciem DX9.W tym momencie ja z nimi nie chcę gadać i życzę im jak najgorzej

217.96.97.* napisał:
Sorki że tutaj to pytanko zadam, ale nie wiem gdzie, a zresztą nie moge nigdzie znaleźć.
A mianowicie jakiego DirectX-a wspiera GeForce256??? Bo GF2 to już DX7, a GF256 DX7 czy DX6???

213.76.236.* napisał:
GF256/GF2/GF2MX i GF4MX to DirectX 7. Wszystkie te chipy wywodza sie z NV10.

217.255.164.* napisał:
http://3dcenter.de/artikel/2004/03-31_a.php
tam jest news o PS 3 choc nie mam czasu go calego czytac (wrucilem z treningu a przedemna jeszcze sporo nauki) zucilo mi sie o oko pogrubione zdanie

znaczy w skurcie... "aby osiagnac/wykozystac PS 3.0 trzeba sie cofos do DirectX7" (wiem ze glupio popolsku to sie czyta ale nie mam czasu)
moje podsumowanie
"robimy 2 kroki do tylu aby zrobic jeden do przodu...."

80.53.127.* napisał:
the inquirer podaje zze kilka zrodeł potwierdzilo to iz inzynieryjne sample NV40 osiągneły 12.535 PUNKTOW w 3DMarku03 icon_eek2.gif .
Dla przypomnienia najwyzszym wynikiem do tej pory było ok 10.000 markow zrobionych na p4 4.5ghz i radku 9800xt mocno podkreconym.

takze ponoc te same zrodla podaja ze r420 było wolniejsze ale naprawde niewiele wolniejsze.

caly artykuł tutaj

http://theinquirer.net/?article=15169

217.82.204.* napisał:
12.535 - nadal cieszko mi uwierzyc... poczekamy na bardziej wiarygodne testy (nie artykuly icon_cool3.gif ) laugh.gif
pozdro icon_wink3.gif

62.87.235.* napisał:
Tutaj lezy kilka filmikow pokazujacych shadery 3.0 na NV40
http://developer.nvidia.com/object/sdk_home.html
Jesli juz to gdzies bylo - sorki, wtedy niech ktorys z modkow sie ulituje i usunie tego posta icon_wink3.gif

83.27.6.* napisał:
hehe jesli te wyniki nieoficjalne sa prawda to chyba Ati bedzie mialo duuuzy problem hihihihi i bardzo dobrze wierzylem w NV caly ten czas:)))

83.30.26.* napisał:


Hihihihi a wiesz może ile R420 wyciąga w 3DMarku.Bo ja nie dlatego na razie sie wstrzymuje od komętownia.Wyjdzie R420 to zobaczymy jak będzie.
PS
Moze wkońcu NV zrobi pożądnie DX 9.0 w swoim NV40.

83.27.6.* napisał:

juz chcialbym zobaczyc
ale tak na zdrowy rozsadek biorac skoro juz niby taki wynik przeciekl to chyba nv raczej o tym wie i chyba sie go nie wstydzi
a o Ati w ogole nic nie slychac....
hmmmm ciekawe dlaczego???

80.53.11.* napisał:


A myslisz, że kto "wyciekł" ten wynik? icon_wink3.gif Mam nadzieję że nV powróci do "lat swej świetności" icon_biggrin3.gif

83.27.6.* napisał:

narazie wsio na to wskazuje
pozatym wsparcie dla PS3 ktorego w ati ma nie byc ;]]

62.179.59.* napisał:
R420 jest podobno nieco słabsze. Podejrzewam, że 10k pewnie przebija. Ale co mnie to. icon_biggrin3.gif

83.30.26.* napisał:


Z tego co wiem to R420 jest 2xszybszy od 9800XT czyli na oko to 12000 tez poleci.A i R420 będzie mieć PS 3.0 icon_cool3.gif :
http://www.frazpc.pl/komentarz/9988

83.27.6.* napisał:

co ty to ati tak wychwalasz co icon_question.gif icon_lol.gif icon_lol.gif icon_lol.gif icon_confused2.gif

83.30.26.* napisał:


.Ja tylkopisze ze jednak R420 będzie miał PS 3.0 i nic więcej.

83.27.6.* napisał:

chodzi mi o calokszatalt twojej tworczosci icon_lol.gif icon_lol.gif icon_lol.gif

83.30.26.* napisał:

Nie kumam cie ja tylko podałem link w którym wyczytałem ze R420 będzie miał PS 3.0 a ty o jakiejs twórczosci gadasz laugh.gif laugh.gif laugh.gif icon_confused2.gif

217.255.160.* napisał:


wymiecie sie numerami gg icon_wink3.gif
ps ---> nie uwierze w zadne wyniki 3d markow...
najpierw dowody icon_twisted.gif
mi sie wydaje ze to kolejna plotka nvidi icon_cool3.gif

83.27.6.* napisał:

no jasne NV juz jest skonczona juz jest tak dziadowsko firma ze nie zajmuje juz zadnego miejsca icon_lol.gif

212.182.122.* napisał:
Nauczycie się normalnie cytować, czy mam kasować wszystkie wasze posty w których zobacze takie cytaty?
Czy tak cięzko zostawić w cytacie tylko ostatnią wypowiedz? Po co inni mają czytać 50 razy coś w rodzaju A napisał B napisał C napisał D napisał E napisał F napisał G napisał .... ???

81.168.201.* napisał:
nie wiem czy ati i nv bedzie oplacalo robic sie tak mocne grafy , w sumie to bedzie dosc duzy skok w wydajnosci

213.76.251.* napisał:
a ja zacieram rece bo jak tylko wyjda potwornie drogie nowe karty ( dla frajerow ) stanieja stare dobre FX5900 oraz jeszcze lepsze 9800 machne na takiej jakiegos modzika i bede znow mial karte ciagnaca gierki FPP z 100fps za marne pieniadze :]

83.144.72.* napisał:


Dobrze gada :] Dac mu wodki ;]

Moze jush w tym roku kupi sie nowe r9800/fx59xx za cene dzisiejszego gf5600/r9600 albo lepiej za cene uzywanego r9100/gf3ti/gf4it icon_wink2.gif

157.25.119.* napisał:
Nie w Polsce panowie, nie w Polsce icon_wink3.gif
Tu dopuki beda mieli te karty beda trzymaly swoje ceny.
Roznica i tak bedzie wielka pomiedzy "starymi" kartami a NV40 i R420. Wiec FX5900XT i Radeon 9800PRO beda jeszcze swoje kosztowaly

83.144.72.* napisał:


No to sie z Uni sprowadzi icon_razz.gif Cla nie bedzie (chyba) od 1 maja wiec....

217.99.177.* napisał:
Widzieliście już to:

user posted image

Jak taki wynik będzie miał nv40 bez żadnych optymalizacji to karta full wypas, ale pewnie to wałek.

a tu kilka screenów kart:
user posted image

user posted image

83.27.11.* napisał:
masakra icon_smile3.gif)) no i widac chlodzenie male jest nawet ;]]]

62.233.243.* napisał:
no tylko ze z tym radiatorkiem to predzej do tapirowania czupryny niz do suszenia ;]

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 2.34 | SQL: 1 | Uptime: 58 days, 21:08 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl