Temat
Nvidia G80 I Ati R600
83.30.88.* napisał:
Ostatnio trochę pogrzebałem w necie, szczególnie CRYSIS mnie urzekł sowimi błyskotkami a do tego jest potrzebny komp a na pewno nasze karty które teraz mamy sobie z tym rady na maxa nie dają więc poszukałem i zatrzymałem się na NVIDIA G80 i ATI R600 słyszał ktoś coś na ich temat?CYTAT(Frazpc.pl)
Jeszcze większość z nas nie zdążyła dobrze zapoznać się z kartami GeForce 7 i Radeonami z serii X1x00 a już zaczyna się mówić o ich następcach. Pierwsza ma zaatakować NVIDIA, pokaz nowej karty ma nastąpić na targach Computex. Przygotowywany w pocie czoła G80 ma być wykonany w procesie technologicznym 80nm, co ma zaowocować zmniejszeniem rozmiaru rdzenia o 19% w stosunku do G70. Bardzo prawdopodobne jest również to, że G80 będzie zgodny z Shader Model 4.0. Do towarzystwa nowemu dziecku NVIDIA zaprzęgnięto pamięci Samsunga GDDR4, które cechują się przepustowością na poziomie 2.5Gbps. Jeśli chodzi natomiast o ATI, to powołując się na firmowy roadmap można domniemywać, że R600 będzie wykonany w procesie technologicznym 65nm. Premiera kart na nim opartych ma nastąpić pod koniec tego roku.
Cytat: z frazpc.pl http://www.frazpc.pl/komentarze/news/15916-NVIDIA_G80_&_ATi_R600_Info
CYTAT(VR-Zone)
* 65nm
* 64 Shader pipelines (Vec4+Scalar)
* 32 TMU's
* 32 ROPs
* 128 Shader Operations per Cycle
* 800MHz Core
* 102.4 billion shader ops/sec
* 512GFLOPs for the shaders
* 2 Billion triangles/sec
* 25.6 Gpixels/Gtexels/sec
* 256-bit 512MB 1.8GHz GDDR4 Memory
* 57.6 GB/sec Bandwidth (at 1.8GHz)
* WGF2.0 Unified Shader
Cytat: z vr-zone.com http://www.vr-zone.com/?i=3177
62.87.178.* napisał:
i po co odswierzasz temat ...jak zwykle tylko bajki
83.30.106.* napisał:
i po co odswierzasz temat ...
jak zwykle tylko bajki
Jakie bajki

80.55.116.* napisał:
Boże.... nie dawno wyszła NV 7900 i Radeon X1900XTX a nvidia i ati robią juz ich następców, i poco to, mogli by troche poczekać asz ich ,,nowe wynalazki,, zyskają większa popularność ale w sumie to dobrze bo może spadną ceny Radeona X1900XTX i NV7900
82.160.203.* napisał:
Przez te zapowiedzi mam dylemat co do zmiany grafy, bo jak karty na bazie G80 ukażą się przed końcem tego roku to czy jest sens kupna teraz 7900 GTX. Co o tym myślicie?194.9.67.* napisał:
Bardziej mnie zastanawia po co robic wynalazki ktore za pol roku beda nie aktualne i nie chodzi o wydajnosc tylko technologie i obsloge narzedzi. NIc wielkiego sie nie zmienialo jak wchodzily nowe windowsy a Vista niesie ze soba jedna duuuza zmiane... Brak kompatybilnosci z DrX w dol co bedzie porazka jak dla mnie.83.23.82.* napisał:
Brak kompatybilnosci z DrX w dol co bedzie porazka jak dla mnie.
caly sytem graficzny opiera sie na dx9 wiec jak moze to byc niekompatybilne? zreszta odpalilem 3dmarka i wynik byl o jakies 10% nizszy, biorac pod uwage ze caly system i stery to beta to imho bardzo dobry wynik.
83.30.80.* napisał:
Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki

212.2.100.* napisał:
Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki


No tak ale 7800gt też są modele dwurdzeniowe.
194.9.67.* napisał:
No tak ale 7800gt też są modele dwurdzeniowe.
Ciekawe gdzie znalazles dwurdzeniowe 7800GT?? Owszem Asus zaprezentowal plytke ale nie drurdzeniowa tylko posiadajaca dwa osobne procesory... To nie to samo i wiaze sie z wieloma trudnosciami jak podwojna emisja ciepla itd a rozwiazanie dwurdzeniowe nie powoduje podwojnego przegrzewania sie...
212.2.100.* napisał:
Ciekawe gdzie znalazles dwurdzeniowe 7800GT?? Owszem Asus zaprezentowal plytke ale nie drurdzeniowa tylko posiadajaca dwa osobne procesory... To nie to samo i wiaze sie z wieloma trudnosciami jak podwojna emisja ciepla itd a rozwiazanie dwurdzeniowe nie powoduje podwojnego przegrzewania sie...
Rozumiem. Ale jak by nie było ten asus jest dwurdzeniowy . A czy tego dwurdzeniowego G80 bedzie mozna połączyć w SLI?
83.29.13.* napisał:
CYTAT
Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki
. A doczytałem jeszcze gdzieś że podobno G80 ma być też dwurdzeniowy GPU


Poczekasz i co? Znowu wyjda zapowiedzi (dajmy na to) G90 i znowu ten sam dylemat

193.238.180.* napisał:
Zawsze możecie wymieniać kartę co pół roku i po problemie.
83.29.13.* napisał:
Co racja to racja
Ewentualnie poczekac i kupic 2x2 rdzenie, albo 4x2 rdzenie i juz nie bedzie quadro tylko oktawro

Jak zle pisze to poprawic...
83.24.52.* napisał:
Co racja to racja

Ewentualnie poczekac i kupic 2x2 rdzenie, albo 4x2 rdzenie i juz nie bedzie quadro tylko oktawro

Jak zle pisze to poprawic...
Myślę, że to by było raczej octo

83.30.78.* napisał:
Ja się wstrzymałem nic się nie stanie jak kupie karte później, która już pociągnie CRYSIS, i będzie obsługiwać SM 4.0 i DX 10 bo te seria 7 i 6 to samo prawie co FX tylko o wiele szybsze i pod względem konstrukcji lepsze. Bo między SM 2 i SM 3 nie widzę dużej różnicy
80.48.127.* napisał:
te parametry g80 są zmyślone , ponieważ nvidia nie zamierza narazie wprowadzać zunifikowanych shaderów83.23.84.* napisał:
te parametry g80 są zmyślone , ponieważ nvidia nie zamierza narazie wprowadzać zunifikowanych shaderów
ta "specyfikacja" dotyczy r600, a nie g80
83.21.42.* napisał:
Boże.... nie dawno wyszła NV 7900 i Radeon X1900XTX a nvidia i ati robią juz ich następców, i poco to, mogli by troche poczekać asz ich ,,nowe wynalazki,, zyskają większa popularność ale w sumie to dobrze bo może spadną ceny Radeona X1900XTX i NV7900

A kart graficznych więcej niż porządnych gier z super grafiką


83.10.19.* napisał:
Ja się wstrzymałem nic się nie stanie jak kupie karte później, która już pociągnie CRYSIS....

A niby na jakiej podstawie uważasz, że x1900/7900 nie pociągną CRYSIS? Chyba cyferki Cię nieco zaślepiły....
Po drugie Crysis jest na razie eksperymentalnym silnikiem i sama gra to na razie odległa przyszłaość. Do tego czasu równie dobrze może być tak, ze zostanie solidnie zoptymalizowany dla szerszego grona kart, jaki i tak,że wymagania wzrosną jeszce dalej i nawet High-end'owe karty będą "padały" pod tym tytułem. Na razie to czyste ploty i mydlenie oczu.
A tak na marginesie - jak byś zobaczył w działaniu choćby x1900 obawiam się, ze zmieniłbyś swoje podejście co do wydajnosci najwyższych modeli od Ati i NV...
194.116.249.* napisał:
A kart graficznych więcej niż porządnych gier z super grafiką


I tu sie z Toba zgodze.... malo ciekawych rzeczy wychodzi... wiec p oco komu te karty? do kolejnych rekordow 3Dmarka chyba... :/
62.233.148.* napisał:
Kolejny temat z [gluteus maximus]

193.238.180.* napisał:
Był tu niedawno gościu z avatarem dody i gadał takie farmazony że aż głowa bolała. Pozdrawiam.62.233.148.* napisał:
Tamten gosciu byl rewelacyjny


83.238.70.* napisał:
Echh moim zdaniem to powinni troche przystopować producenci gpu.Dopiero co kupiłem x1600pro golden a tu już shadery 4.0 w drodze.Najbardziej mnie dziwi że robią nowe generacje kart tymczasem potencjał starych kart nie został wykorzystany w 100%.Trzeba brać przykład z konsoli.Tam wyciskają do samego końca wszystko co sie da z gpu i tym sposobem GT4 wygląda przepięknie chociaż gpu jest dużo słabsze niż w pecetach sprzed dwóch lat.To samo tyczy sie dooma na xboksie.Owszem został okrojony ale śmiga lepiej niż na kompach mimo tego że ma mało ramu;/.Chyba najwyższa pora żeby producenci zrozumieli że to oni się powinni do nas przystosować a nie my do nich.Echh szkoda że nie wrócą czasy 3dfx'a kiedy to karta starczyła spokojnie na 2 lata grania na full detalach
193.238.180.* napisał:
Mi jeszcze pasuje wydajność X800XT W 1280 na 960 z max detalami. Natomiast jak wyjdzie UT2007 to będzie slideshow. Producenci robią tak by nowa karta starczyła tylko na rok (głównym powodem jest wyścig marketingowy). Pozdrawiam.80.48.127.* napisał:
spokojnie ci pociągnie ut2007 , gdzieś nie dawno się wypowiadali że będzie dało się grać na karcie pokroju 6800gt/ultra na rozdziałce 1024*76883.21.42.* napisał:
Mi jeszcze pasuje wydajność X800XT W 1280 na 960 z max detalami. Natomiast jak wyjdzie UT2007 to będzie slideshow. Producenci robią tak by nowa karta starczyła tylko na rok (głównym powodem jest wyścig marketingowy). Pozdrawiam.
Dokładnie. A po co nam PS 4.0 i inne technologie? No bo za technologie sie płaci... a raczej to my za te technologie zapłacimy

Oni robią szybciej te karty niż sie robi gry.
OT a widział ty Black'a na PS2 gra po prostu sam miód.
83.30.113.* napisał:
Panowie ja się tu nie gubię
83.23.84.* napisał:
Ja tutaj nie zaprzeczam żę CRYSIS nie pójdzie na Radeonie X1900XTX
nie zaprzeczas, czyli zgadzasz sie, ze nie pojdzie

CYTAT
tylko na pewno nie będzie tych wszystkich wodotrysków z SM 4.0 i DX 10.
spokojna Twoja rozczochrana, mamy jeszcze kaaaawal czasu do tych "zmartwien"


85.222.11.* napisał:
To klient powinien decydować i może decydować jaką grafę kupi. Niestety marketing i próżność robią swoje. Tak się biznes kręci niestety na osobach nie dokońca mających odpowiednią wiedzę. Gdy ludzie trochę pomyśleli i nie gonili za każdą nowością to Wielkie koncerny od GPU wtopiły by trochę kasy w nowe technologie. Jak by im nie schodziły chipy GPU z magazynów to albo zmniejszyli by cenę albo przeanalizowali by rynek i trochę rzadziej robili by premiery. Jednak magia cyferek 3DM robi swoje i każdy, a szczególnie wytwórcy GPU i producencji graf chcą mieć palmę pierwszeństwa w ilości marków. Żałosne, ale cóż taki jest obecnie Świat.85.128.125.* napisał:
Dlaczego uważasz osoby kupujące najnowsze topowe karty za te "nie dokońca mających odpowiednią wiedzę"? Zdradzisz mi inny sposób, by móc się cieszyć najnowszymi pozycjami w 1280x1024max + eye candies? I co w tym żałosnego?
83.30.124.* napisał:
Może i nie chodzi o to ale są tacy żę mają 7800GTX i zaraz zmieniają na 7900GTX bo to lepsze. I dzięki takim mamy ciągłe wydawanie nowych kart a nie jedna karta na dwa lata i wszystko na HIGH. Przecież jak było z GeForce 4600 4200 były długo na rynku.83.21.58.* napisał:
A ludzie nie mający zielonego pojęcia o kartach kupią 5200,zamiast naprzykład 4600
A co nam daje wychodzenie kart co rok? Twórcy teraz już nie przykładą pracy do optymalizowania gier bo po co skoro ciągle wychodzą nowe super karty i np. Taki LA Rush z denną grafiką chodzi mi 10x wolniej niż Far Cry z super grafą.
194.116.249.* napisał:
A co nam daje wychodzenie kart co rok?
ostatnio to co kilka miesiecy... :/ i te kilka oznacza 2-3miesiace :/
86.5.23.* napisał:
Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?!
83.19.100.* napisał:
Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?!

W pełni się z Tobą zgadzam , dzięki temu ze np teraz wyszła seria 79xxx zostały obnizone ceny innych kart , teraz za cene GF7800Gt(no prawie ale niedawno tyle kosztowała ta karta) mamy karte 7900GT wydajniejszą od wiele droższego 7800GTX , prawdopodobnie cena 7800GT spadnie porządnie a przeciez to jest bardzo wydajna karta !! ja widze same zalety . O ile nv jest ok o tyle Ati nie bardzo ... tzn nie teges bo u nv SM3.0 mamy od serii GF6 i chyba G80 tez będzie takie cos posiadało , u ATI jest inaczej X800 SM2.0+ x1xxx SM3.0 R600 (chyba) SM4.0 i to mi się nie bodoba , przynajmniej u nv jest stabilniej jakoś i jak coś wprowadzą to to trzymają póki nie ma większych potrzeb a ATI albo coś trzyma za długo albo za szybko(prawdopodobnie tak teraz będzie) zmienia strasznie ktrótki zywot miałby SM3.0 , moze dla innych wydaje się to głupie co teraz wypisałem ale nie pasuje mi to. aaa i nie mówcie ze nv pospieszyła się z SM3.0 teraz się to przydaje , przynajmniej można wszystkie efekty zobaczyć w nowszych grach

217.144.217.* napisał:
Taa zwłaszcza na serii GF6 gdzie wsparcie SM3 bylo stanowczo na wyrost, które z tych kart pozwalaja na gre z HDR z wygladzaniem??
83.19.100.* napisał:
nie iwem o co Ci chodzi widziałem tetsy np FAR CRy z SM3.0 i HDR i np 6600GT dawał sobie spokojnie rade , kazda sobie da rade powyżej i też włącznie z 6600GT , zresztą HDR i AA nie zawsze działą zalezy jaki AA będzie80.48.127.* napisał:
Taa zwłaszcza na serii GF6 gdzie wsparcie SM3 bylo stanowczo na wyrost, które z tych kart pozwalaja na gre z HDR z wygladzaniem??

seria gf 6 i 7 nie obsługują FSAA+Hdr , więc się doucz
195.205.45.* napisał:
O to mu wlasnie chodzilo
btw: może ktoś zrobi topik :
G82 vs. R620 - czym nas zaskocza nowe dzieciaki ATI i NV


83.30.108.* napisał:
To co zmienić tytuł na tytuł od Buu?85.128.125.* napisał:
misiek175, nie poznałbyś ironii nawet gdyby wyszła zza rogu i kopnęła Cię w kostkę...?80.53.163.* napisał:
Jakos nie zauwazylem aby sie s.m. 3.0 do czegokolwiek przydal.83.23.75.* napisał:
seria gf 6 i 7 nie obsługują FSAA+Hdr , więc się doucz
obsluguje. kwestia metody FSAA. przyklad - AoE3
217.144.217.* napisał:
obsluguje. kwestia metody FSAA. przyklad - AoE3
Dokladnie, choc to kwestia wsparcia konkretnej gry, bo oficjalnie to narazie GF nie wspieraja wygladzania w HDR, ale jak wiadomo SM3 i SM4 to kolejne chwyty marketingowe.
Roznica glowna miedzy seria R500 a R600 bedzie polegala na unifikacji jednostek ALU, czyli bez podzialu na blok vertex i pixel, oraz na nizszych kosztach produkcji(80nm), wyzszym taktowaniu?. Z zapowiedzi wynika, ze uklad ma mocno czerpac z doswiadczen Xenos-a, dzieki czemu ma ulecz zmniejszeniu powierzchnia ukladow scalonych i upakowanie z dzisiejszych az 384M, gdzie slono kosztuje to w produkcji niestety. W Xenos sam blok 48 procesorow ALU zajmuje zaledwie ok 105M przy 240M calosci, w R580 ponad polowe zajmuje "olbrzymi" kontroler pamieci, a napewno nowa seria zostanie wyposazona dodatkowo w zintegrowany uklad eliminujacy master karty w systemie Crossfire.
83.26.250.* napisał:
obsluguje. kwestia metody FSAA. przyklad - AoE3
Day Of Defeat: Source i niektore mapki do CS: Source takze.
83.6.113.* napisał:
To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"
Pozdrawiam

83.11.156.* napisał:
KArty coraz lepsze wychodzić będą jeszcze długo!Nawet gdzieś czytałem o nowych osobnych kartach do obliczeń fizyki, aby odciążyć procka!
Ta hegemonia zostanie przerwana dopiero jak mądrzejsi ludzie zaczną robić gry!
Czyli takie które wyglądają zaje... a mają małe wymagania!
Według mnie to będzie rewolucyjny engine!
Bo co z tego że masz ładny obraz skoro potrzebujesz do tego GRZEJNIKA Z SUSZARKĄ!
85.128.125.* napisał:
Mnie tam starcza wc lub accelero x2 (np.), suszarka nie jest potrzebna. Obserwuję twoje posty John i straszny demagog z ciebie.86.5.23.* napisał:
To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :
"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"
Pozdrawiam

Polecam odpalić FarCry na karcie z dx8 i na karcie z dx9 - chyba ślepy by nie zauważył różnicy. Nagięta wypowiedź...
194.63.132.* napisał:
Polecam odpalić Far Cry -ale w pierwszej wersji(nie 1,33) na dx.8.1.włączyć BumpMapping,i pare innych drobiazgów i porównać z FEAR.Bardzo interesujące porównanie,zważywszy jakie wymagania ma FC i FEAR.
A SM 1.1 vs 2.0 czasem można odróznić na screenshotach,bo w grach są to często tak subtelne różnice ,że jak ktoś by nam nie pokazał różnic to większość myślałaby ,że tak ma być.
Ale trzeba przyznać ,ze w nowych grach gdzie docelowo to SM2/SM3 róznice są już bardziej widoczne,wynika to z faktu ,że SM2/SM3 pozwala więcej osiągnąc mniejszym nakładem pracy.
A naturalną rzeczą jest ,to że w chwili premiery nowych kart z nowymi możliwościami przez ok.rok nie ma żadnej gry ,która pozwala to wykorzystać.
Podobne tematy
Programy do NVIDIA RIVA TNT2 64 Model
NVIDIA GeForce Quadro i ORB :/
Optymalna karta dla PIII 866.ATI a nVIDIA.
Edycja biosu Nvidia
radeon czy nvidia - pod linuxa
ATI cz NVidia?
3dMark05 ATI vs NVIDIA
nVidia sux again? Zwalony procesor video w GF6800?
Podstawowe pytanie nVidia czy ATI
Gigabyte Ga-k8nxp-sli Nvidia Nforce4-sli + Gigabyt
Ati Vs Nvidia
Ati Czy Nvidia ? Ktora Lepsza Do Grafiki ?
Gigabyte Nvidia 6600 Gt - Problem
NVIDIA GeForce Quadro i ORB :/
Optymalna karta dla PIII 866.ATI a nVIDIA.
Edycja biosu Nvidia
radeon czy nvidia - pod linuxa
ATI cz NVidia?
3dMark05 ATI vs NVIDIA
nVidia sux again? Zwalony procesor video w GF6800?
Podstawowe pytanie nVidia czy ATI
Gigabyte Ga-k8nxp-sli Nvidia Nforce4-sli + Gigabyt
Ati Vs Nvidia
Ati Czy Nvidia ? Ktora Lepsza Do Grafiki ?
Gigabyte Nvidia 6600 Gt - Problem
Działy
Copyright © 2002-2025 | Prywatność | Load: 23.61 | SQL: 1 | Uptime: 4 days, 8:18 h:m |
Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl