heh.pl
Kanał informacyjny Heh.pl


Niedziela 22 grudnia 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

Agp Pro Oraz Voodoo 5500


83.27.121.* napisał:
Witam wszystkich serdecznie, mam następujący problem:

Dostałem niedawno dość dziwną płytę główną wysciągniętą z komputera Compaq AP550, jest ona na czymś takim jak RIMM ale nie o tym mowa. Otóż zorientowałem się iż jest na niej dziwny slot AGP oznaczony jako AGP Pro. Mam kartę 3dfx'a Voodoo 5500 i nie wiem czy można takowego do tego gniazda włożyć. Byłem w paru serwisach i sklepach, i tam mają zdania podzielone. Albo nie wiedzą co to w ogóle jest, albo mówią że wszystko będzie działać, albo jeszcze inaczej mówią że karta się spali. Tracić szanownego Voodoo 5 nie mam ochoty więc proszę o pomoc tutaj. Może ktoś z użytkowników miał do czynienia z AGP Pro?

83.28.238.* napisał:
wydaje mi sie ze gdzies sie z tym etknolem i ze to po prostu jest agp x2 ;P czyli lepsza wersja agp. mysle ze karta powinna dzialac albo po prostu sie nie wlaczy. spalenie grafy raczej nie wchodzi w gre. jedna to tylko moje skromne zdanie moze ktos bieglejszy sie wypowie

apropo jak z wydajnoscia tej grafy/? i moglbys tam wtrynic jakols inna stara grafe pod agp, no moze stare s3 czy starego ati rage za 5 zl ;P

83.27.121.* napisał:
Mam S3 Trio 2x/ coś tam. Ale to nie ma do końca identycznego złącza jak owe Voodoo. Ale pomysł w sumie dobry - dzięki. W sklepach proponowali mi ATI Radeona 9250 na PCI czy podobnie ale ja wole stare Voodoo 5500 icon_wink2.gif.

Co do jego wydajności - Jeśli chodzi o 3DMarki to w 2000 działa super (2800 z czymś), w 2001 już gorzej (800 chyba...), ale to też wina procesora i RAM-u. W tych kartach im szybszy był procek, tym szybsza była karta. Aktualnie mam Pentium III 558 MHz i takie są wyniki. Ale planuję zrobić mały eksperyment i uruchomić Voodoo na Pentium 4 2,6 GHz.

85.89.163.* napisał:
co do voodoo 5 jest walek ze zlaczem agp, jesli zauwazycie na zlaczu jest tylko jedno wyciecie, w wiekszosci plytach glownych karta musi miec dwa, sam sie wkopalem jak kupilem athlona xp z plyta na kt600, musialem kupic nowa grafike, co do wynikow to one sa w normie, wyzsze nie beda bo voodoo nie obsluguje jakis tam efektow i niektore testy sie nie odpalaja, generalnie karta jest najszybsza w swojej klasie, jedynie moze byc problem z opdaleniem niektorych nowszych gier (oczywiscie mowa o 2-3 letnich),

81.168.149.* napisał:
Spoko, tamta płyta pod PIV jest uniwersalna, dopasowywałem fizycznie i wejdzie. Ale tak swoją drogą chciałbym mieć Voodoo 5 6000. Na tym to bym przetestował chyba wszystkie gry icon_biggrin3.gif.

Co do AGP Pro - też fizycznie karta wejdzie ale obawiam się o napięcia.

85.89.163.* napisał:
voodoo 5 6000 i 5500 to jedno i to samo, roznica tylko w ilosci ramu i chipow, zapomnij o nowych grach na tych kartach

83.27.117.* napisał:
Nie no nie mówię o grach najnowszych typu Quake 4 czy Fear. Ale Doom 3 już powinien działać. Voodoo 6000 to jakby dwie 5500 a na tej Doom już trochę chodził. Szkoda tylko że jest ich tak mało i że są tak drogie. Swoją drogą ciekawi mnie ostatni "podryg" 3dfx'a czyli "Project Rampage" na VSA-200. Ale jest chyba tylko jedna taka karta poza tym nie ma do niej nawet sterów icon_razz.gif

84.10.251.* napisał:
AGPpro miałem takie złącze na ASUSIE K7V z ATHLONEM 700MHZ. i wkładałem tam Geforca 256 od Creativa. To poprostu AGPx4 tylko dłuższe z dudatkowymi pinami podajże do zasilania kart które wtedy tego wymagły była wtedy chyba taka karta Geforce 256 64Mb DDR na agp pro i wtedy wykorzytywała te złącze. Poprostu wkłada się taką kartę w slot ale zaczynasz od tyłu czyli tam gdzie jest zapinka w obecnych agp ,powinna wejść, i zobaczysz że z przodu zostanie troche pustego miejsca tam gdzie nie weszło złącze karty.Wszystko powinno dzialac bez problemu przynajmniej ja tak mialem.

83.27.117.* napisał:
Masz rację - gdy dopasowuję kartę do Pro z przodu zostaj miejsce, a z tyłu w Agp wchodzi to zakończenie. Cóż, pozostaje działać. Ale najpierw i tak czekać muszę na procesor icon_smile3.gif

80.53.183.* napisał:
AGP PRO to odpowiednik AGP x4, tylko z wiekszą obciążalnością na pobór mocy! Voodoo 4 i 5 są na AGPx4, więc problemów nie powinno być.

83.27.121.* napisał:
No to nie jest do końca prawda. Co prawda oficjalnie Voodoo 4500/5000/5500/5750/6000 miały być na AGP x 4 to nie do końca tak było. Wystarczy spojrzeć na te dwa modele. Oba to Voodoo 5500, z tym że jedno jest nieco krótsze i ma inne złącze:
User posted image

User posted image


Ja mam to pierwsze i na AGP 4x ta "czterokrotność" nie działa icon_razz.gif

84.179.163.* napisał:
Bo ta pierwszajest na inne napiecie(chyba tylko 3.3V), a druga uniwersalna 3,3V / 1,5V. Nie jestem pewien wartosci napiec, ale generalnie wyciecia w slocie AGP sluza do kodowania napiec, jakie obsluguje karta/plyta.

80.48.127.* napisał:
agp(25wat), agp pro(50wat)

83.27.115.* napisał:
Voodoo 5500 i tak ma zewnętrzne zasilanie, bezpośrednio z zasilacza pobiera moc. Ponoć aż 100W. Nie wiem czy pobiera też z AGP, ale chyba tak. Mimo to na Pro powinno działać. I tak pierwsze uruchomienie przeprowadzę na Intel i770 bo nie chcę narażać kolekcji Voodoo.

80.48.127.* napisał:
100wat pobierała wersja 6500 która nie weszła , miała 4gpu , miała zew. zasilanie i dodaktowy zasilacz

83.27.115.* napisał:
Tak, widziałem tamtego potwora. I ten zasilacz obok obudowy komputera. Chciałbym mieć takiego icon_smile3.gif

80.48.127.* napisał:
pewnie niewiele sztuk powstało i leży w muzeum 3dfx-a icon_smile3.gif

83.27.115.* napisał:
Nom pewnie tak, ale 3/4 siedzi w komputerach maniaków i kolekcjonerów. Za te karty to nawet są gotowi z 3000 zł dać. Widziałem kiedyś taką licytację na Ebay. W sumie te karty były bardziej prototypami niż produktami na sprzedaż. Było też gdzieś w internecie porównanie Voodoo 5 6000 vs. ATI Radeon 9800 XT. Mimo prehistorycznej technologii karta nie wypadła wcale tak beznadziejnie.

80.48.127.* napisał:
bo 3dfx robił dobre stery , a teraz robią dla nv , widać wpływ 3dfx sli itd

83.27.115.* napisał:
Oj robił, robił... Dlatego podczas wymiany komputera wyposażę się w nVidię. Będę miał wrażenie że coś w tym GeForce'ie jest z 3dfx icon_biggrin3.gif . Co do samego 3dfx... Sam się wkopał. Karty wieloprocesorowe były nie na tamte czasy, poza tym masa opóźnień, dalszy brak T&L i innych nowinek... Mimo to szkoda. Ale ja nadal trzymam swoją "5" w komputerze i od czasu do czasu obciążam np. Unreal Tournament. Jak ktoś ma Voodoo 4500 na sprzedaż to kupię, tego mi tylko brakuje poza 6000.

83.24.30.* napisał:
i 6000 będzie twoim marzeniem na pół życia, bowiem tylko 100 takich kart wypuszczono do obiegu. Lepiej poszukaj Asusa 2x7800GTX icon_smile3.gif Tego jest 1000 sztuk, moze będzie łatwiej. I Doom będzie śmigał icon_smile3.gif

85.89.163.* napisał:
CYTAT
Oj robił, robił... Dlatego podczas wymiany komputera wyposażę się w nVidię. Będę miał wrażenie że coś w tym GeForce'ie jest z 3dfx

to sobie kup nvidie i sie bardzo zdziwisz, wykupili 3dfxa i z jego patentow nic nie wykorzystali, nadal ida swoja slepa drogia i wypuszczaja coraz to wieksze gnioty, stery do bani, sli do bani (nawet bym tego tak nie nazwal) i reszta tez do bani, w geforcie jest ale caly szajs geforce'a

82.139.15.* napisał:
Gniot gniotem, ale na rynku prowadzi. Mimo to nie przebije 3dfx'a w grach typu UT czy Q2. Nawet na 10800 w poczwórnym SLI i z 2GB RAM gra będzie wyglądała tak sobie. Na nic Pixel Shardery itd. Fakt faktem - gra nie obsługuje tych nowinek ale jakość obrazu ma najlepszą. Voodoo zawsze będzie najlepsze na gry z tamtych czasów. Ma ktoś może jeszcze jakąś kartę 3dfx'a?

83.24.147.* napisał:
Ja miałem najpierw Voodoo 3 2000 na PCI później na AGP icon_wink2.gif
Karta wyczes w 1999 chyba w pierwszym tygodniu jak weszła do sklepów dałem za nią 600 zł icon_neutral3.gif
Ale warta była ceny. 3 lata chyba na niej działałem ale zachciało mi sie 32 bity i kupiłem mx2 200 - gorsza wydajnościwo od 3Dfx (szkoda że po kupnie to wykryłem:P).

82.139.15.* napisał:
A ja mam jakąś klątwę icon_razz.gif. Pierszy komputer jaki kupiłem był z Voodoo 2. Każdy mi zazdrościł. Znosili mi wiele gier które u niech nie działały lub nie dało się grać a u mnie wszystko działało super icon_biggrin3.gif. Potem musiałem się komputera pozbyć, dostałem od znajomego kompa z Voodoo 1. Działałem na nim i po jakimś czasie znów dostałem Voodoo2. Po wymianie komputera odkryłem w nim Voodoo 3 2000. Zachciało mi się wymiany karty i poprosiłem w sklepie o coś dobrego. Miał być Ge-force 2 GT czy podobnie a dostałem... Voodoo 5500.

83.25.15.* napisał:
CYTAT
AGP PRO to odpowiednik AGP x4, tylko z wiekszą obciążalnością na pobór mocy! Voodoo 4 i 5 są na AGPx4, więc problemów nie powinno być.


Dokładnie tak. Ja nie wiem co to za serwisanci i sprzedawcy zeby nie wiedziec ze AGP Pro to AGPx4,które zostało wymyślone po przypadkach kiedy nowoczesne wówczas GF2gts i 3dfx VooDoo5500, nie chciały chulać na niektórych płytach głównych wyposażonych w agp4, ze względu na duży na uwczesne czasy pobór mocy.

212.76.47.* napisał:
Ej, agp pro to nie jest przypadkiem w mac-ach ?

83.24.17.* napisał:
MD0 - AGP Pro = dostarczanie większego napięcia. Nie am to nic
wspólnego z przepustowością, która w AGP4x jest teoretycznie
dukrotnie większa (tak jak w teorii AGP8x ma dwukrotną przewagę
nad AGP4x - a jak jest, każdy wie ^^).

Gry na Voodoo (obsługa Glide) wyglądały lepiej niż u konkurencji
(do czasu Rivy TNT 16MB). Później 3dfx zaczął się lekko kaszanić :\

194.29.137.* napisał:

Gry na Voodoo (obsługa Glide) wyglądały lepiej niż u konkurencji
(do czasu Rivy TNT 16MB). Później 3dfx zaczął się lekko kaszanić :\

nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide
nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage
proponuje porownac sobie UT na Voodoo3 ,Savage4 i calym pozostalym sfufie w Dx czy Ogl
wyglad jest nieporownywalny ,a troche kart przemielilem : rivaTNT,TNT2 m64 ,kyro,geforce2mx, rage pro ,radeony

co ciekawe to jedyna gra w ktorej wykorzystano pelny S3TC i Savage4 dawal najladniejszy obraz i wydajnoscia dorownywal voodoo3 dry.gif
cala resta stawki w tyle

87.80.208.* napisał:
CYTAT
nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide
nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage


no tu sie z kolega nie zgodze - nie co do jakosci obrazu generowanego przez Savage4 bo tego nie wiem niestety, ale co do S3TC - to nie jest zaden jakis tam standard wyswietlania grafiki jak Glide, openGL czy DirectX. S3TC to nic innego jak pionierskie rozwiazanie S3 w dziedzinie sprzętowej kompresji tekstur - karty S3 Savage4 mialy 32MB ramu na pokladzie ale dzieki S3TC gry w ktoorych zaimplementowano wlasnie ta technologie potrafiły "widziec" do 64MB ramu...

S3TC = S3 Texture Compression

BTW: Rozwiazanie to okazało sie na tyle skuteczne ze i ATI i nVidia wykorzystuja w swoich kartach S3TC

PS: Mimo nowatorskich pomysłów Savage4 jak poozniej jego nastepca Savage2000 okazaly sie rynkowymi niewypalami. Zbyt długo opoozniana premiera i brak wsparcia ze strony sterownikoow pograzyly firme S3...

85.198.193.* napisał:

nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide
nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage
proponuje porownac sobie UT na Voodoo3 ,Savage4 i calym pozostalym sfufie w Dx czy Ogl
wyglad jest nieporownywalny ,a troche kart przemielilem : rivaTNT,TNT2 m64 ,kyro,geforce2mx, rage pro ,radeony

co ciekawe to jedyna gra w ktorej wykorzystano pelny S3TC i Savage4 dawal najladniejszy obraz i wydajnoscia dorownywal voodoo3 dry.gif
cala resta stawki w tyle

Ze co icon_wink2.gif
Co to jest S3TC wytlumaczyl Ci juz ChomiK.
Co do Savage to pod wzgledem wydajnosci uklad slabszy od V2 i Rivy TNT(nawet nie 2 ;P). Do tego dochodza sterowniki, ktore sa pieta achillesowa tej karty. W tamtym okresie nie tylko ze na kartach S3 grafika miala przeklamania to do tego gry potrafily zacinac sie w naglych momentach i wtedy tlko restarcik. Stery do tej karty byly okropne. Do tego dochodzi brak Twin Texel.
Co do jakosci to nie wiem skad to wytargales icon_wink2.gif
Zagraj sobie w Unreala(pierwsza czesc) na glide i na OGL/DX i bedziesz wiedzial jaka karta generuje najlepszy obraz. Unreal najelpiej wyglda na kartach 3dfx'a i nie ma co dyskutowac. Wiem bo gralem w Unreala w DX/OGL i w Glide na kartach 3dfx'a i najelpiej Unreal wyglada na kartach 3dfx'a.
Potem S3 wydalo poprawionego Savage4 ale stery znowu daly o sobie znac. Karta nie podpila swiata mimo ze na papierze wygladala calkiem, calkiem.
To samo bylo z Savage 2000. Znowu sterowniki spowodowaly ze karta technicznie bardzo dobra(i nowoczesna jak na swoje czasy T&L spzretowy) okazala sie klapa.

PS
S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje.

212.51.219.* napisał:
dodam ze na voodoo5 unreal (ut rowniez) z AAx4 wyglada o wiele lepiej niz na x700 z AA (moja karta) oraz 6600gt z AA (qmpla karta)
co do s3tc to tak, jakos jest zauwazalnie gorsza, najlepsza jakosciowo kompresja to fxt1

87.80.208.* napisał:
CYTAT
S3TC powoduje pogorszenie jakosci obrazu. Niewiele i czesto niezauwazalne ale powoduje.


No bo to przecie kompresja - kazda kompresja na tym polega niestety ze cos sie "wycina" dla zmniejszenia rozmiaroow. To samo tyczy sie Mp3 przecie...

CYTAT
co do s3tc to tak, jakos jest zauwazalnie gorsza, najlepsza jakosciowo kompresja to fxt1


No tu sie znowu nie zgodze - jesli chodzi o stopien kompresji to rzeczywiscie fxt1 jest najskuteczniejsza ale za to wlasnie KOSZTEM jakosci ... S3TC [jak zreszta fxt1] zaimplementowana jest we wszystkich popularnie produkowanych ukladach graficznych i oferuje najlepsza jak dotad jakosc w stosunku do stopnia kompresji.
To co napisales dowodzi jeszcze jednego. Skoro błednie stwierdziles ze jakosc przy S3TC jest gorsza, znaczy ze a to tylko Twoje subiektywne odczucia bo rzeczywistosc jest zupelnie inna - to wlasnie S3TC ma przewage nad fxt1 pod wzgledem jakosci...co mozecie dokladnie obadac http://www.digit-life.com/articles/reviews3tcfxt1/

Pozdro dla wszystkich...

194.29.137.* napisał:
o czym wy mowicie
Chomik chcial dobrze i prawie dobrze napisal
S3TC to natywny sposob kompresji tekstur S3
pozniej niby wykorzystalo to i ATI i NV ,ale nie w takim stopniu jak pierwowzor (NV wyswietlala tekstury 64mb przy pomocy teksturowania agp ,a savage4 przy wykorzystaniu pamieci karty -WIEM co pisze ,bo mialem plyte ktora za ch.. NIE CHCIALA TEXTUROWAC przez AGP)

sucker
S3TC nie powodowalo pogorszenia jakosci tekstur -moze minimalne ,ale niezauwazalne
po co odpalac UNREALa ,lepiej UT (UnrealTornament) ktory ma natywna obsluge Glide dla Voodoo3 i pelne wykorzystanie programowe S3TC dla Savage4 -chyba jedyna gra
tam doskonale widac ze Savage 4 daje najlepszy obraz i jest tak szybkie jak Voodoo3 (co do zegara - rowniez jedyna gra)
w innych grach Savage4 mial problem by obronic sie przed rivaTNT na w UT rozwalal pelna riveTNT2 dajac lepszy obraz

nie twierdze ze S3 mialo dobre stery ,bo mialo tragiczne ,ale widac jaki potencjal mialy te uklady przy dobrze napisanym programie
voodoo3 za to mialo swietne stery i przy swojej natywnej kompresji (brak texturingu) respekt dal nich za to co potrafili zrobic przy 16mb pamieci i 22-bit kolor wewnetrzyny

87.80.208.* napisał:
Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana...

Odnosnie 22bit koloru w voodoo3:
3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej....

pozdro...

PS:Sie maly OffTopic zrobil ... ;]

83.24.27.* napisał:

nie pisz glupot - to co wyswietla riva czy inna karta w trybie Dx to beporownywalna kaszana w stosunku do Glide
nie dotyczy to trybu S3TC ktory obslugiwal tylko S3 Savage
proponuje porownac sobie UT na Voodoo3


Unreal Tournament był jedną z niewielu gier, które obsługiwały na przełomie 1999 i 2000 roku API 3dfxa.
Ty mi mówisz o Voodoo 3 z 16bitowym kolorem, a każdy myślący człowiek wybrałby TNT z 32 bitową paletą.
A przecież inaczej nie było. Mało znana NVIDIA zaczęła kopac dołek pod 3dfxem juz za czasów pierwszej TNT !
Miałem u siebie VoodooRush, później przez króki czas Voodoo Banshee. To prawda, że Unreal i UT wyglądały
na kartach 3Dfxa świetnie. Przełączajac się w tryb D3D odrazu znikała szczegółowośc tekstur, wszystko
stawało sie takie nijakie. Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie!

NVIDIA była tak bezlitosna wobec 3dfxa jak Creative wobec Aureala. Jednak Creative w najnowszych kartach
przywrócił pozycjonowanie dźwięku znane z serii kart Vortex. O Glide w wydaniu NVIDII mozemy jednak pomarzyć ^_-

85.89.163.* napisał:

Rzeczywiscie KGB masz racje - savage4 uzywa pamieci karty - co nie zmienia idei S3TC - jest caly czas wykorzystywana...

Odnosnie 22bit koloru w voodoo3:
3dfx ogłosil ze ich karta renderuje wewnetrznie w 32bitach ale na wyjsciu daje 16 - 3dfx poroownalo to do renderingu 22bitowego. W rzeczywistosci jakosc obrazu generowanego przez TNT2 wtedy, byla lepsza juz w 16bitach. Podobnie z teksturami - 3dfx zatrzymal sie na etapie z przed 2 lat - max wielkosc textury 256x256...Dodatkowo dochodzi AGP, ktoore zaimplementowano w voodoo3 tylko po to zeby uzytkownicy "nowszych" wtedy plyt mogli wpiac ta karte - niestety nikt nie wykorzystał potencjału w rzeczywistosci [no wlasnie brak teksturowania przez AGP] - AGP dla voodoo3 to raczej cos w rodzaju wewnetrznej przejscioofki z PCI na AGP...nic wiecej....


i tu sie nie zgodze
prawda jest taka ze 3dfx mial gowniana polityke firmy ale nvidia chciala jeszcze na sile go zniszczyc, udalo sie a wszystko przez dobry marketing
glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przerosl

CYTAT
Ale analogicznie mogę powiedziec o Quake III, który na TNT2 wyglądał po prostu pięknie!

i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!!


83.25.16.* napisał:

MD0 - AGP Pro = dostarczanie większego napięcia. Nie am to nic
wspólnego z przepustowością, która w AGP4x jest teoretycznie
dukrotnie większa (tak jak w teorii AGP8x ma dwukrotną przewagę
nad AGP4x - a jak jest, każdy wie ^^).

Gry na Voodoo (obsługa Glide) wyglądały lepiej niż u konkurencji
(do czasu Rivy TNT 16MB). Później 3dfx zaczął się lekko kaszanić :\


Ej jeśli chodzi ci o to, że AGP Pro = AGP 2x + dostarczanie większego napięcia, to
jesteś w błędzie, bo AGP Pro = AGP 4x + dostarczanie większego napięcia
wiem bo pamiętam te czasy, na dowód tego zapodaje linka

http://www.macosx.com/articles/Expansion-Cards-Part-2-AGP.html

moze zacytuje bo troche tego tam jest:

"Another specification for AGP was released between 2.0 and 3.0,
and was referred to as AGP Pro." icon_wink3.gif

Pozdrawiam

85.198.193.* napisał:
CYTAT('cmsydney')
i znowu nieprawda, porownujac teraz q3 na radeonie x700 i voodoo5 nie ma zadnej roznicy!!!!!!!


Tylko wydaje mi sie ze Lumperator mowi o Q3 na Rivie TNT2 i V2/3 ktore nie obsluguja 32bit'owej palety, tekstor wieskszych od 256x256.
V5 w/g mnie to byla naprawde swietna karta. T&L podobnie jak na poczatku 32bit'y byl tylko chwytem marketingowym. Dzisiaj jakos nowe karty nie maja jednostki T&L icon_wink2.gif.
V5 mialo ogromna przewage nad Geforcami a mianowicie jakosc obrazu. Jakosc FSAA na V5 w/g mnie nawet dzisiaj mozna nazwac bardzo dobra. 3dfx postawil wtedy na poprawianie obrazu czyli lansowanie FSAA podczas gdy nVidia postawila na nowa technologie czyli T&L.
nVidia lepiej wyczula koninkture. FSAA jak na tamte czasy byl za bardzo meczacy dla karty ale V5 nawet dawala sobie z nim rade icon_smile3.gif
Do tego w V5 3dfx w koncu wprowadzil wieksze tekstury a nie ograniczone do 256x256 jak to bylo w poprzednikach. To w/g mnie byla glowna wada V3 a nie paleta kolorow. Wlaczalem pare gier w 32 i 16bitach i nie potrailem znalezc roznic.
Mialem V2, V3(nadal mam) Rive TNT2 i musze powiedziec ze na ziemie powalila mnie V2 i V3. V2 jakoscia grafiki po odpaleniu Unreala a V3 ta sama grafa tylko ze znacznie lepszym framerate icon_smile3.gif.
Pamietam jak pierwszy raz uruchomilem Unreala na V2 i ofrazu dalem rozdzilke 800x600(max dla jednej karty). Gra chodzila plynnie, bez zwolnien a grafa POWALALA. Softwareowy Unreal w/g mnie bardzo duzo traci mimo ze zawsze mowie ze miod jest wazniejszy od grafiki ale tutaj grafa bardzo duzo pomaga grze, szczegolnie jakosc tekstor.

87.80.208.* napisał:
CMSYDNEY:
CYTAT
i tu sie nie zgodze

Hyhy - chyba nie chcesh sie pogodzic z rzeczywistoscia - tak po prostu jest - rozejrzyj sie po sieci i poszukaj...;]

CMSYDNEY:
CYTAT
prawda jest taka ze 3dfx mial gowniana polityke firmy

To akurat prawda ;]

CMSYDNEY:
CYTAT
glownie poszlo o 32bity a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit, czy za czasow voodoo ktos psioczyl na przejscia kolorow? nie, bo ich nie bylo, niestety pozniej programisci sie rozleniwili i tak wyszlo. 3dfx wiedzial ze nie ma to znaczenia ale rynek go przerosl

Hahaha - pozostawie bez komentarza !!! ;]
W sumie to sie sobie nawet dziwie ze odpowiadam na tego posta...;]
-------------------------------------------------------------------------------------
SUCKER - odnosze dziwne wrazenie ze twoj post w 95% to jakis dowcip - a ze lubie abstrakcyjny humor to sie z przyjemnoscia posmialem - DZIENX MAN! hyhyhy ;]

83.24.27.* napisał:
Mowa oczywiście o porównaniu Voodoo 3 do TNT2. V5 w ogóle nie biorę pod uwagę z powodu ówczesnej i teraźniejszej niedostępnosci karty.
Voodoo 3 czy TNT2 ? TNT2.

cmsydney
"a prawda jest taka ze programista ktory napisze dobrze gre to bedzie wygladala jak na 32bit"

Masz bujną wyobraźnę icon_smile3.gif

194.29.137.* napisał:
nie no ,na voodoo3 naprawde nie bylo widac wiekszej roznicy w kolorze
moze to dlatego ,ze w tamtych czasach gry byly i tak pisane pod 3dfx icon_razz.gif
ale faktem jest ze dzisiaj na TNT2 bez problemu mozna odpalic niektore nowe gry ,ktore na V3 nie odpalaja (przynajmniej na normalnych sterach)
i mozna gdybac - V3 brak texturowania ,male textury - ale wtedy to byl duzy plus (przynajmniej z texturowaniem) bo sporo plyt mialo problemy np. u mnie Savage3D ,Savage4 ,TNT2 - zwiechy przy graniu ,V3 -niedojze ze najszybsze to jeszcze bezproblemowe
no a dzis wiadomo - V3 nawet nie wlozysz do agp8x ,a TNT2 moze spokojnie sluzyc jako karta zapasowa

sam jestem wyznawca voodoo ,choc na poczatku korcila mnie ciemna strona 32-bit koloru
jednak po zbadaniu zjawiska lider byl tylko jeden
rynek rzadzi sie swoimi prawami,jednak NV nie zagrala czysto - pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda ,ale 3dfx padl

3dfx juz nie wroci ,ale PowerVR moglby wreszcie cos pokazac ,bo KYRO to jest dobiero wymiatacz icon_razz.gif

85.89.163.* napisał:
male sprostowanie, fakt nawet zapomnialem ze v5 mialo 32bit oraz duze tekstury, mialem rowniez v3 i w porownianiu do tnt2 bylo to samo (oprocz tekstur), kolory identyczne. zadnych przejsc kolorow, ale za to v3 bylo zdecydowanie szybsze
i teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem
nie wiezycie? odpalcie sobie jakies stare gry: turok, shadows of the empire i inne
a czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewien
aha i czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (http://www.benchmark.pl/artykuly/recenzje/WinFastGeForce256/WinFastGeForce256-6.html), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warte laugh.gif laugh.gif laugh.gif

83.24.27.* napisał:
3dfx nie miał koncepcji. Nvidia najpierw zintegrowała w karcie graficznej
akcelerator 3D, potem rozwijała prace nad serią kart TNT-TNT2 by
wreszcie osiągnąć zamierzony cel - GeForce256. Nvidia cały czas
idzie z postępem. Pomijając bardzo nieudaną serię FX, kolejne karty
z serii GeForce są krokiem naprzód. Co druga seria jest małą rewolucją.
Powstanie GF256 było krokiem milowym. Później GF2 tylko rozwinięciem.
GF3 (PixelShader) znowu spory krok naprzód, a GF4Ti przedłużenie.
Seria FX miała być kolejnym sporym uderzeniem (zwłaszcza technologicznym),
ale jak było, każdy wie. GF6 i wszelkie nowinki z nim związane pozwoliły NV
odebrać pierwszeństwo, które przez długi czas należało do ATi. I znowu seria
GF7 jest rozwinięciem poprzedniego pomysłu. Można zatem oczekiwać, że G80
będzie mocnym sprzętem -znacznie lepszym i ciekawszym niż obecne GF6/7.

U 3Dfxa panowała zupelnie inna atmosfera. Wydanie Voodoo I było
na ówczesne czasy prawdziwie rewolucyjnym posunięciem. To był
znacznie mocniejszy cios w konkurencję aniżeli miało to miejsce
z GeForce256. Magia Voodoo nie dawała żadnych szans pozostałym rywalom.
Znane wówczas akceleratory PCI Diamond Monster rozchodzily się w tempie
błyskawicznym. Później Voodoo 2 znowu zgniótł konkurencję. Granie w Unreala
na tym dopalaczu to była istna rozkosz. Kiedy do gry weszła NVIDIA, coś sie
zaczęło paprać. Wprawdzie większość gier na Voodoo 2 chodziła lepiej niż na
Rivie 128 (a bardzo często nawet lepiej niż na 16 megowej TNT!), to stopniowa
przewaga jakościowa w kartach Riva oraz zintegrowany w niej akcelerator 3D
nie dawały cienia wątpliwości co do nadchodzącej, druzgocącej przewagi.
3Dfx... a właściwie 3dfx po wydaniu Voodoo3 nie mial już większych
szans. NVIDIA zbudowała spory budżet po bardzo udanej serii TNT
(zwłaszcza z tymi hucznymi Detonatorami!). O NVIDII zaczęło się
mówić głośno, powstawało coraz wiecej kart od różnych producentów.
3dfx nie mogł się przez to przedrzeć. I w dodatku ten 16 bitowy kolor.
Magia Voodoo skonczyła się w momencie zmiany logo firmy.

Między czasie trochę zamętu zrobił Matrox G400... wypadł z gry przez
wysoką cenę. Jednak do dziś znajduje swoich nabywców (patrz allegro^^).

83.16.111.* napisał:
Ej ja mam AGP Pro/8X na mojej Asus A7N8X Deluxe! Mogę z tego jakoś skorzystać ?
Co do 3dfx.. To były piękne czasy! W NFSIII kokpity mogli zobaczyć tylko szczęsliwi posiadacze Voodoo z 12MB na pokładzie! Pamiętam ze największe wrażenie na mnie zrobił RedlineRacer jeszcze za czasów VoodooI 4MB...

87.80.208.* napisał:
CMSYDNEY:
CYTAT
teraz zastanowcie sie, jak v3 generowalo te 22bity? napewno nie sprzetowo, to byl trik programowy ktory najprawdopodobniej byl rowniez stosowany w starszych grach by nie bylo widac przejsc kolorow, pozniej tego w grach zabraklo i nagle 32bity staly sie standardem

Musze powiedziec ze z kazda Twoja wypowiedzia jestem coraz bardziej zaskoczony Twoim brakiem wiedzy - co ciekawe caly czas odzywasz sie w tym temacie co konczy sie plodzeniem glupot powyzszego pokroju...anyway w sumie i tak wszyscy rozminelismy sie z pierwotnym tematem...;]Dobra rada: poczytaj troche o ditheringu w 16bit 32bit i pseudo 22bit[tak naprawde 16bit+pare sztuczek] - zobaczysz o co tak naprawde chodzi z tymi bitami...;]

CMSYDNEY:
CYTAT
czy v5 mialo prawdziwy 32bit kolor? nikt tego nie moze byc pewien

Haha - nastepna idiotyczna wypowiedz - to ze V5 ma 32bit kolor to FAKT - jezu man !! rozejrzyj sie po sieci - i znoow poczytaj o ditheringu ;]

CMSYDNEY:
CYTAT
czy t&l bylo potrzebne? oczywiscie ze nie, to byl pic na wode, jak to nvidia sie zachwalala t&l umozliwialo wyswietlenie ladnej jednej opony samochodowej (LINK), ale motor potrzebuje dwoch a samochod juz czterech..... smiechu warte

No musze przyznac ze porafisz stopniowac napiecie i najlepsze zostawiasz na koniec...;]to juz jest kompletny dowood braku wiedzy w temacie na ktoory proobujesz sie nieudolnie wypowiadac...Czy T&L to pic na wode? czlowieku!!! - wprowadzenie T&L to odciazenie CPU od obliczania transformacji i oświetlenia i przekazanie tych zadan dla karty graficznej - ten aspekt do tej pory zawsze spoczywał na barkach procesora....to wlasnie od tego momentu na procesory kart graficznych zaczelo sie moowic GPU!!! [Graphic Processing Unit] - jednostka przetwarzania grafiki - dlaczego? od tej pory wszystkimi aspektami wyswietlania grafiki zajmuje sie tylko i wylacznie k.graficzna - procek moze liczyc na przyklad A.I., fizyke i inne co niewatpliwie dawalo programistom zupelnie nowe mozliwosci !! To byla rewolucja!!!! A Ty cos o jakichs oponach nawijasz totalnie bez sensu - cos zobaczyles w jakims demku pewnie i nie zalapales jego sensu...;]

KGB:
CYTAT
pamietam jak gazety szydzily ze slow szefa 3dfx przy wypuszczaniu V4/V5 ze T&L nie jest jeszcze potrzebne - jak widac byla to prawda

Z twojej wypowiedzi wynika ze to 3Dfx pierwsze zamierzalo wprowadzic jednostkę T&L - o ile dobrze Cie zrozumialem. Gwoli scislosci napisze jedno: 3Dfx zapowiedzialo uklad VSA100 [czip stosowany w V4/5] z obsługa T&L 16-tego listopada 1999. Mialo to miejsce o wiele za poozno - wtedy juz bylo pozamiatane bo NVidia uderzyla zz GeForcem256 31-szego sierpnia 1999. porazka 3Dfx to tylko i wylacznie wina menagmentu tej firmy - mysleli ze trzymaja rynek za jaja i zamiast sie rozwijac zbyt szybko spoczeli na laurach...tymczasem nVidia rozwijajac nowatorskie pomysly znakomicie znalazla sie na rynku coraz szybciej rozwijajacego sie rynku gier komputerowych...

To by bylo na tyle ;]

KGB - big respect - mam nadzieje ze nie odbierasz zle mojej wypowiedzi - najzwyczajniej kcialem uscislic ;]
CMSYDNEY - respect - mam nadzieje ze nie poczules sie urazony moimi komentarzami - nie mialem takiego zamiaru. Anyway naprawde lubie sie posmiac, a ty dostarczyles mi sporej dawki humoru ;] - chyba podejrze inne Twoje posty ;]

pozdro...

85.198.193.* napisał:
ChomiK czy dzisiejsze karty graficzne(a dokladnie GPU/VPU) posiadaja jednostke T&L?

80.48.127.* napisał:
mają jakby nie miały to by nie były zgodne z dx7 , a tak naprawde to t&l to [ciach!]o dawało , bo jak weszły mocniejsze procki np Athlon Xp to już procesory były na tyle mocne , że zysk z t&l był mały , wystarczy postestować 3dmarka 2001 z t&l i bez na mocnym procku spadek pkt jest bardzo mały

83.24.44.* napisał:
Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę
przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby
teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze-
czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę.
Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze
ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256.
Zobaczymy co czas pokaże.

sideband

Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci
mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij
na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach.

85.198.193.* napisał:
Zanim bedziecie pisac ze obecne karty posiadaja jednostke T&L to radze sobie poczytac cos wiecej o obencnych kartach.
Dodam ze dojdziecie do czegos takiego jak VS.
I radze najpierw poszukac a nie spekulowac icon_wink2.gif

80.48.127.* napisał:
jeżeli nie ma jednostki t&l to jakaś inna jednostka przejeła zadania t&l , obczaiłem troche tylko karty dx7 i dx8 mają jednostke t&l , dx9 już nie

83.24.44.* napisał:
Pierwsze symptomy związane z przetwarzaniem oświetlenia w jednym
przebiegu pojawiły się z premierą GeForce3. Rozbudowana jednostka
T&L2, w skład której wchodził PS1.1 posiadała wiele innych ciekawostek -
a chociażby długo oczekiwane mapowanie środowiska znane z czasów G400.
Pół roku po premierze GeForce4 Ti, ATi stworzyło nowy procesor w
którym zaawansowana = programowalna jednostka oświetleniowa
(i nie tylko!) pozostała przy nowej-starej nazwie - PixelShader v2.0.
Obliczenia geometryczne trójkątów nazwano Vertex Shader. Ale tak naprawdę
programowalny PixelShader i wydajny VertexShader bazują na starym
dobrym pomyśle sprzed lat - odciążenie procesora głownego z przeliczania
geometri i oświetlenia (T&L) Każda kolejna generacja staje się coraz bardziej
niezależna od procesora głownego. I powracamy do sedna sprawy.
Kiedyś wielką rewolucją był oddzielny akcelerator od
3Dfx'a, który na ówczesne czasy był absolutnie nowością numer 1.
Z kolei GeForce256 to produkt, który został opracowany tak, by
jego magia (a w zasadzie siła ^^) przyciągała przez wiele lat. Cóż,
3Dfx zachłysnął się własnym fenomenem, który w dobie nieprzemy-
ślanej polityki firmy doprowadził do takiego a nie innego skutku.

83.24.44.* napisał:
sideband

Tą jednostką jest PS 2.0 i VS2.0 (ShaderModel 2.0) które razem z programowalnym
procesorem przetwarzania video (VideoShader) tworzą chip.
Wydajność tego przetwarzania można wykorzystać przy dekodowaniu
DVD, HDTV, wysyłaniu obrazu na TV, encodowaniu video itd. Niestety
brak dobrego softu ogranicza niektóre możliwości.
Zdaje się że w niemieckim Chipie pokazano wyniki wydajności kompresji
MPEG2 => WMV przy wykorzystaniu CPU oraz przy wykorzystaniu technologii
AVIVO. ATi udostępniło w wersji beta programik, za pomocą którego dokonano testu.
Wyniki - z AVIVO 5x szybciej !!!

Stary T&L pozostaje jedynie w specyfikacji DirectX7. ShaderModel2.0 (czyli można by
powiedzieć nowe, proste w programowaniu i bardzo wydajne T&L) musi być sprzętowo
zgodny ze starym T&L. Jesli by tak nie było, to logiczne, że powstałyby problemy
z uruchamianiem gier DX7 z poziomu DX9 na najnowszych kartach.

85.198.193.* napisał:
Czy obecne karty maja sprzetowy czy programowy(lub emulowany jak niektorzy wola) T&L

85.89.163.* napisał:

Sucker wszystkie obecne karty graficzne posiadają sprzętową jednostkę
przetwarzania transfomacji i oświetlenia. Czy wyobrażasz sobie, żeby
teraz tak zaawansowane procesory nie miały tego? To byłoby zaprze-
czeniem nazwy GeForce. Cofnij się do 1999 roku i poczytaj troszkę.
Od czasów GF256 żadna firma nie pokazała nic rewolucyjnego. W drodze
ewolucji powstało wiele ciekawych rozwiązań na bazie stareeeego GeForce256.
Zobaczymy co czas pokaże.

sideband

Czymś NVIDIA musiała zaszpanować. na samym początku zysk w wydajnosci
mógł być wyraźny. We wrześniu 1999 roku nie było Athlonów XP. Zerknij
na testy - GeForce256 mocno odsadził konkurencję... zwłaszcza w nowych grach.


no tak cofinijmy sie w czasie, voodoo5 bez t&l bylo niemalze porownywalne z geforce2 gts, i to bez t&l, a po co bylo t&l? po to by obciazyc procka i by grafika stala sie niezalezna od proca? jak bylo w rzeczywistosci? tak jak przed t&l. nadal grafika byla zalezna od proca, czyli t&l to byla lipa, to byl tylko pretekst by zniszczyc 3dfx'a, tak jak dzisiejsze vertexy i inne srexy......

83.25.8.* napisał:
cmsydney
VooDoo 5500 było nie niemalże porównywalne tylko w pełni konkurencyjne, a w CD-Action icon_biggrin3.gif test porónawczy był z niemal równymi wynikami, a nawet ze wskazaniem na VooDoo(dostał medal hehe) Inna sprawa ze uwczesne gry raczej nie potrafiły wykorzystać Transformu i Lajtingu icon_wink3.gif

83.24.44.* napisał:
cmsydney

Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii
Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy.
3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym
z magii, lipnym, energochłonnym i potwornie drogim akceleratorem.

85.198.193.* napisał:
cmsydney jednostka T&L nie wystepuje dzisiaj w grafach co nie oznacza ze VS jst do bani bo nie jest. Dzieki niemu programista moze zrobic duzo ciekawych efektow, jednostka VS jest programowalna w przeciwnienstwie do T&L, ktore bylo w GF256/2. W GF3 byla jeszcze taka jednostka T&L aby zapewnic zgodnosc z GF256/2 ale w noszych kartach(chyba od FX'ow(lub juz w GF4 nie pamietam dokladnie) u nVidi i R300 u Ati) nie ma jednostek T&L. Ich zadanie przejal VS. W r300 jak mnie pamiec nie myli VS emuluje stary T&L ktory obecnie nie jest uzwany ze wzgledu np. na to ze nie jest on zalezny od programisty czyli mowiac prosto jest nieprogramowalny. Obecnie wykorzystuje sie tylko VS i karty nie posiadaja jednostki T&L.

83.24.8.* napisał:
sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do
jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video
z wykorzystaniem potoków cieniujących, a drugie to programowalna
jednostka geometrii i oświetlenia wykorzystywana w grach.

85.198.193.* napisał:

sucker, ale nie myl pojęć VideoShader i ShaderModel. Wprawdzie do
jednego się sprowadza, ale pierwsze odpowiada za przetwarzanie video
z wykorzystaniem potoków cieniujących, a drugie to programowalna
jednostka geometrii i oświetlenia wykorzystywana w grach.

Nie myle pojec.
Nie wiem skad tobie wzielo sie VideoShader?
Ja caly czas mowie o VertexShader a on jest czescia SM i wraz z PS tworzy SM.

212.51.207.* napisał:

cmsydney

Voodoo 5 to 2 procesory, a GF2 tylko jeden. Dostępność kart z serii
Voodoo 5 była znikoma. Ceny fatalne. O czym my tu rozmawiamy.
3dfx zrobił błąd i tyle. Dobił się na amen tym zupełnie wyczerpanym
z magii, lipnym, energochłonnym i potwornie drogim akceleratorem.


hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony
a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty
a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

83.24.8.* napisał:
Mogłeś tak odrazu powiedzieć. Skrótów w branży IT jest tak wiele, że
niektóre z nich zwyczajnie się powtarzają. A skąd ja mogłem wiedzieć,
że chodzi ci o Vertexy ? Nieprecyzyjnie to ująłeś. Powinno być SM a nie VS.

85.198.193.* napisał:

Mogłeś tak odrazu powiedzieć. Skrótów w branży IT jest tak wiele, że
niektóre z nich zwyczajnie się powtarzają. A skąd ja mogłem wiedzieć,
że chodzi ci o Vertexy ? Nieprecyzyjnie to ująłeś. Powinno być SM a nie VS.

Niech bedzie. Ktos moglby to zrozumiec inaczej, moglem raz napisac VertexShader wtedy nie bylo by niedomowien.
Jednak uzylem skrotu VS specjalnie aby pokazac ze dzisiaj emulacja starego silnika T&L(tego z GF256/2) zajmuje sie jednostka VS a nie SM w sklad ktorego wchodzi jeszcze min. PS.
Do tego jak wspomnialem w GPU GF3 umieszczono jeszcze(oprocz VS) stary silnik T&L z GF'a256/2 aby zapewnic pelna zgodnosc wstecz, ale obecnie nie ma juz tego w GPU bo jest niepotrzebne.

83.24.8.* napisał:

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony
a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty
a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty



NVIDIA zbudowała 1 porządny chip, bardzo dobrze wypełniła rynek swoimi produktami.
GeForce to był strzał w dziesiątkę. 3dfx nie miał już nic do gadania. Zabawa w kilka
procesorów nie ma sensu. Przejechał się na tym 3dfx i ATi ze swoim Fury Maxx.
Teraz znowu odgrzewają stare pomysły. Ale zarówno NVIDIA jak i ATo mogą sobie
na to pozwolić. Ja osobiscie nie widzę sensu łączenia 2 kart w komputerze.
Jeżeli nowa rodzina kart wychodzi co rok, to najwyższy model z tej rodziny
będzie szybszy niż najwyższe 2 modele z rodziny poprzedniej (2x6800U < 1xGTX).
Oczywiscie zakładajac, że aplikacje wykorzystają potencjał najnowszego produktu.
Multi GPU to jest walka o świadomosc klienta, a nie próba najłonienia go do zakupu
dwóch kart. Typowy laik jak zobaczy przewagę 2 kart NV przy dwóch kartach ATi
spojrzy lepszym okiem na tego pierwszego i pobiegnie do MM za GF 6200
(ja swoją kupiłem z allegro ^____^). Taka jest niestety prawda. Obie firmy
wymyslają wiele niepotrzebnych dla nas rozwiązań, tylko po to by wywołać
wokół siebie wiecej pozytywnego szumu.

80.48.127.* napisał:

hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony
a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty
a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty

wiekszej głupoty nie słyszałem voodoo 5 80wat , voodoo 6500 z 4 gpu nieżle wykreconymi pobierał niecałe 100wat

62.233.169.* napisał:

Ja osobiscie nie widzę sensu łączenia 2 kart w komputerze.
Jeżeli nowa rodzina kart wychodzi co rok, to najwyższy model z tej rodziny
będzie szybszy niż najwyższe 2 modele z rodziny poprzedniej


Tyle że:
- Dwie słabsze karty dające podobną moc, co topowa w danym momencie karta kosztują często 40% jej ceny albo mniej
- No i jest też kwestia grupy maniaków, którzy w każdym momencie chcą mieć jak najwydajniejszy sprzęt, więc kupią dwie najwydajniejsze karty, a jak wyjdą jeszcze wydajniejsze, to też je kupią.
- No i jeszcze z czasem SLI pewnie będzie można rozczerzać do więcej niż 2 kart.
- Poza tym jednen kanał PCIex to nie dwa - o ile się nie mylę każdy slot PCIex to osobne połączenie z chipsetem, a nie punkt wejścia do jednej magistrali, więc chyba ich przepustowości się sumują? (Tutaj nie jestem pewien, bo od 2 lat jestem mocno nie na bierząco, a nie chce mi się szperać, więc proszę o sprostowanie)



87.80.208.* napisał:
CMSYDNEY:
CYTAT
hm.... to mialem szczescie ze go kupilem w sklepie w cenie geforce2gts? jestem zaskoczony, a czy zrobil blad to nie wiem, cos napewno go zniszczylo ale chyba nie dwa procesory, pamietaj ze to jest prawdziwe sli a nie to co teraz nvidia zrobila, przejela patenty i nadal robia gnioty
a czy v5 byl pradozerny? ciagnal ok 80W, tyle co niektore dzisiejsze karty


Tradycyjnie kolega jakies gupoty wypisuje - zaczynam sie zastanawiac czy to oby nie prowokacja...hyhy ;]

SUCKER:
CYTAT
Jednak uzylem skrotu VS specjalnie aby pokazac ze dzisiaj emulacja starego silnika T&L(tego z GF256/2) zajmuje sie jednostka VS a nie SM w sklad ktorego wchodzi jeszcze min. PS.


Masz racje ale rzecz w tym ze wlasnie GeForce dal podwaliny wspooczesnym GPU - T&L jako takie sie skonczylo - technologia zostala dalece rozwinieta - inaczej nazwana - ale idea GPU przetwarzajacego grafike "w calosci " coraz dokladniej odzwierciedlajacego rzeczywistosc, pozostala...T&L naprawde bylo milowym krokiem w dziedzinie kart graficznych - choc mysle ze najwiekszym przelomem w tej branzy bylo wprowadzenie do sprzedazy akceleratora voodoo1 [to zeby nie bylo ze 3Dfx nie wnioosl nic od siebie] ;]

pozdro...

85.198.193.* napisał:

Masz racje ale rzecz w tym ze wlasnie GeForce dal podwaliny wspooczesnym GPU - T&L jako takie sie skonczylo - technologia zostala dalece rozwinieta - inaczej nazwana - ale idea GPU przetwarzajacego grafike "w calosci " coraz dokladniej odzwierciedlajacego rzeczywistosc, pozostala...T&L naprawde bylo milowym krokiem w dziedzinie kart graficznych - choc mysle ze najwiekszym przelomem w tej branzy bylo wprowadzenie do sprzedazy akceleratora voodoo1 [to zeby nie bylo ze 3Dfx nie wnioosl nic od siebie] ;]

pozdro...


To czy T&L byl potrzebny czy nie mozna by dyskutowac. Ogolnie uwazam ze nie dawal on takiego kopa jak nVidia starala sie przedstawiac w swoich broszurkach.
Oczywiscie byl to krok na przod w odciazeniu GPU ale daleko nie zaszli bo okazao sie ze w takiej formie jakie wtedy byl ten silnik czyli nieprogramowalny nie pozwalal programistom na wieksza swobode, dlatego powstal VS, w pelni programowalny dzieki czemu programisci dostali cos co mogli samemu zaprogramowac i tworzyc efekty jakie nawet projektantom GPU sie nie snilo(moze to lekka przesad icon_razz.gif).

Co do przelomow to ja uwazam ze bylo ich kilka. Ogranicze sie tylko do grafiki 3D.
Pierwszym byla magia Voodoo. Tutaj nie ma co dyskutowac. Byla to karta o ogromnych mozliwosciach, jakosc grafiki niemozliwa do uzyskania na jakiejkolwiek wtedy dostepnej na rynku karcie czy akceleratorze(mowie o rynku komputerow domowych).
Riva TNT byla przelomem ale niewielkim w porownaniu z Voodoo1. Jej zalety to bardzo dobre polaczenie akceleratora 3d i karty graficznej plus niezle sterowniki, wsparcie dla OGL'a i D3D oraz paleta kolorow 32bit'owa i wieksze tekstury. Minus slaba wydajnosc po wlaczeniu 32bit'ow i slabsza wydajnosc od Voodoo2.
Potem przyszedl GeForce256. Tez nie byl to ogromny przelom ale wiekszy od RivyTNT bo producenci graf zaczeli myslec jak tutaj odciazyc procek z niepotrzebnych obliczen i tak wymyslono T&L ale za duzo z tego nie wyszlo icon_wink2.gif.
Kolejnym przelomem mozna nawet powiedziec na miare voodoo bylo stworzenie GF3. Ta karta dopiero pokazala kierunek rozwuju przyszlych kart graficznych i ten kierunek do dzisiaj ksztaltuje powstawanie GPU. PS/VS to podstawa projektowania dzisiejszych graf, programisci wykorzystuja mozliwosci SM do tworzenia realistycznych tekstor czy ruchu postaci, morfingu itd. To wszystko zapoczatkowal GF3 w/g mnie ta karte mozna nazwac karta przelomowa na rowni z voodoo.
A moc GF3 mozna zobaczyc w konsoli XBox. Tam ten GPU(lekko podszliowany icon_wink2.gif) pokazuje jaka grafe jest w stanie narysowac icon_smile3.gif.

Kolejnym przelomem ma byc SM4.0 i nowy DX od MS'a. Przelomem bedzie bo nie bedzie zgodny wstecz z tego co pamietam. To minus i plus zarazem. Minus wiadomo jaki a plus to nie przejmowanie sie tym co bylo o proba zrobienia czegos nowego nowatorskiego, inne podejscie do tworzenia grafiki itd. Ale czy bedzie to przelom czy moze zawal to przekonamy sie jak juz bedzie po premierze i jak programisci na to beda sie zapatrywac icon_smile3.gif

Pozdrawiam.

83.24.8.* napisał:
Tak, to prawda. GeForce3 to porządna karta. Test Nature w 2001SE
wywoływał bardzo pozytywne emocje^^ To chyba najbardziej udany
GeForce ze wszystkich do tej pory stworzonych. Niestety odrazu
nie dało sie zrobic wszytskiego. Jak to okreśił trafnie ChomiK - GF256
dał podwaliny dla współczesnych GPU. Do pewnego momentu były to
sztywne zasady. Rozwiniecie idei w postaci programowalnych shaderów
znacząco poprawiło skład, ale tory pozostały te same. Zobaczymy dokąd
nas zaprowadzą.


- Dwie słabsze karty dające podobną moc, co topowa w danym momencie karta kosztują często 40% jej ceny albo mniej


40% jej ceny ? laugh.gif

194.29.137.* napisał:

KGB:
Z twojej wypowiedzi wynika ze to 3Dfx pierwsze zamierzalo wprowadzic jednostkę T&L - o ile dobrze Cie zrozumialem. Gwoli scislosci napisze jedno: 3Dfx zapowiedzialo uklad VSA100 [czip stosowany w V4/5] z obsługa T&L 16-tego listopada 1999. Mialo to miejsce o wiele za poozno - wtedy juz bylo pozamiatane bo NVidia uderzyla zz GeForcem256 31-szego sierpnia 1999. porazka 3Dfx to tylko i wylacznie wina menagmentu tej firmy - mysleli ze trzymaja rynek za jaja i zamiast sie rozwijac zbyt szybko spoczeli na laurach...tymczasem nVidia rozwijajac nowatorskie pomysly znakomicie znalazla sie na rynku coraz szybciej rozwijajacego sie rynku gier komputerowych...

pozdro...

wcale z mojej wypowiedzi tak nie wynika
w woli scislosci : 3Dfx nic nie zapowiadal ,najwyzej 3dfx (taka nazwa funkcjonowala od V3 ,czyli przejecia przez 3Dfx'a firmy STB)
wiem ze 3dfx sie przeliczyli ,ale nie mozna powiedziec ,ze T&L niosl ze soba jakies korzysci wtedy - to bylo widac nawet na testach
T&L byl jedynie dobrym poczatkiem jakiegos tam rozwoju w przyszlosci ,a marketing NV zrobil z tego sprawe BYC,albo NIE BYC - nachalne wciskanie kitu zostalo jeszcze niektorym do dzis
tak padl 3dfx - przez glupote ludzi ,kampanie wyborcza :]
bo jezeli T&L mialby dawac taki wzrost wydajnosci ,to jak wytlumaczyc wysoka pozycje wydajnosci V5 5500 ,KYRO i KYRO 2 juz w roku 2002 gdzie przeciez przez 2 lata powinna wyjsc masa gier z wykorzystaniem T&L
jak pisalem ,to byl dobry krok naprzod ,ale nie dyskwalifikujacy ukladow bez niego
dodatkowo wychodzily coraz mocniejsze procesory ,nawet NV zauwazyla ,ze na T&L juz dlugo nie pojada z nabieraniem ludzi i w gf3 wprowadzili dodatkowe "bajery" by sprzedac kolejny produkt z wyzszej polki (gf2 zdazyl staniec icon_razz.gif )

P.S.
dx7.0 wcale nie obligowal do posiadania jednostki T&L - KYRO nie posiada ,a jest wpelni zgodne z dx7.0


85.89.163.* napisał:

wiekszej głupoty nie słyszałem voodoo 5 80wat , voodoo 6500 z 4 gpu nieżle wykreconymi pobierał niecałe 100wat


to ile ciagnal voodoo5? sam nie wiem bo nie mierzylem, jedynie co to gdzies wyczytalem ze pobiera ok 100W (dwuprocesorowy) dlatego tak strzelilem 80W, jesli duzo mniej to czy ta karta byla erergochlonna? aha ile moze dostarczyc mocy port agp? bo po co bylo to osobne zasilanie karty.


83.24.8.* napisał:
Voodoo 5 6000 w kompie:

http://www.x86-secret.com/pics/divers/v56k/size_3dfx.JPG

Cytat z PCLab.pl:
"Gdy bowiem firma ta zaprezentowała karty z serii Voodoo4 i Voodoo5, oferujące w końcu 32-bitowy kolor i tekstury o rozmiarze 2048×2048, NVIDIA już sprzedawała GeForce z pamięciami DDR. Gdy zaś 3dfx na początku 2000 roku zaprezentował Voodoo5 5750, także z pamięciami DDR, NVIDIA miała już gotowy układ GeForce 2 GTS (Giga Texel Shader), który prezentował wydajność i możliwości znacznie większe, aniżeli jego poprzednik. Pokonać najnowszy układ NVIDII mógł już tylko Voodoo5 6000. Wyposażona aż w cztery układy VSA-100 (najsłabszy Voodoo4 4500 miał jeden taki układ, zaś Voodoo5 5000 oraz Voodoo5 5500/5750 po dwa) i 128 MB pamięci karta była prawdziwym gigantem, wymagającym zewnętrznego zasilania. Niestety, równie gigantyczne okazały się też jej koszty produkcji, przez co firmie 3dfx nigdy nie udało się wprowadzić Voodoo 5 6000 do masowej sprzedaży. Co ciekawe, ten „Titanic” akceleratorów z rodziny Voodoo oferował możliwości na tyle duże, że nawet dzisiaj można by na nim zagrać w Quake III Arena osiągając ponad 140 klatek na sekundę w rozdzielczości 1024×768 i 32-bitowym kolorze! Tyle samo oferował dopiero zaprezentowany przez NVIDIĘ na początku 2001 roku GeForce3! "

Co prawda to prawda, ale Nature w 3DMarku2001 nie uruchomi ^^

Cytat z PCkuriera:
Na rynku pojawiły się już karty 3dfx Voodoo4 4500 oraz Voodoo5 5500. Nie mają one procesorów geometrii (co jest uznawane za ich największą wadę), udostępniają za to pełnoekranowy antyaliasing. Niestety, działa on jedynie w rozdzielczości do 800x600! Wydajność Voodoo5 5500 (karta o dwóch procesorach VSA-100 i 64 MB pamięci) w niskich rozdzielczościach jest o 30-40 proc. gorsza od GeForce 256, zaś w bardzo wysokich rozdzielczościach (1280 x1024 i 1600x1200) - jest o kilka procent lepsza od GeForce 256, jednak gorsza od GeForce2 GTS. Szacuje się, że dopiero Voodoo5 6000 (z czterema procesorami VSA-100 i 128 MB pamięci; w cenie... 600 USD!) wyprzedzi GeForce2 GTS w wysokich rozdzielczościach w aplikacjach, które nie wymagają procesorów geometrii."

Cytat z FrazPC
"Testy prędkościowe wykazały jednak, że Voodoo5 5500 wcale nie jest tak szybki. W niskich rozdzielczościach (640x480 i 800x600) jego osiągi są dużo gorsze od GeForce 256 - wyraźna przewaga GeForce wynika z użycia przez niego procesora geometrii. W rozdzielczościach 1024x768 i powyżej wyniki uzyskane przez Voodoo5 są minimalnie lepsze od osiągów GeForce 256 z pamięcią DDR. Voodoo5 5500 ma być bezpośrednim konkurentem GeForce2 GTS, jednak przegrywa z nim w każdej rozdzielczości."

Chyba teraz sie trochę przejaśniło.

85.89.163.* napisał:
oczywiscie, bo opierali sie na wynikach z 3dmarka oraz podajze mdk2 (jedna z niewielu gier ktore niby wykorzystywaly t&l) icon_smile3.gif


80.48.127.* napisał:

to ile ciagnal voodoo5? sam nie wiem bo nie mierzylem, jedynie co to gdzies wyczytalem ze pobiera ok 100W (dwuprocesorowy) dlatego tak strzelilem 80W, jesli duzo mniej to czy ta karta byla erergochlonna? aha ile moze dostarczyc mocy port agp? bo po co bylo to osobne zasilanie karty.

agp 25wat , agp pro 50wat

83.24.6.* napisał:

oczywiscie, bo opierali sie na wynikach z 3dmarka oraz podajze mdk2 (jedna z niewielu gier ktore niby wykorzystywaly t&l) icon_smile3.gif


Gdyby 3DMark podawał niemiarodajne wyniki, to ludzie przestaliby z niego korzystać.
Stare pomysły nie mogą być w kółko odświeżane. Wysoki poziom teksturowania
Voodoo5 w niektórych grach, nie usprawiedliwia go z kiepskich wyników w 3DMarku.
To samo tyczy się Radeona 8500 i GeForce Ti4200. W 2001SE spisywały się
niewiele gorzej od nowych kart typu Radeon 9500! Miejscami nawet Ti4200
był szybszy. Za to w 3DMarku 2003 sytuacja diametralnie się zmieniła na korzyśc nowych
kart spod znaku DirectX9.

Radeon 9500 - 4 potoki, 1 jednostka teksturująca na potok, PixelShader 2.0
GeForce 4200 - 4 potoki, 2 jednostki teksturujące na potok, PixelShader 1.3

Ktoś musi wyznaczać nowe kierunki. W 1999 roku zrobiła to NVIDIA wprowadzając
GeForce256 z silnikiem T&L. Później spory krok naprzód postawiło ATi z rodziną
9500-9800. Ja to widzę tak:

1996 - 3Dfx Voodoo 4MB ....... rewolucyjny akcelerator 3D, całkowity przewrót na rynku gier.
1997 - nVidia Riva 128 .......... Pierwsza karta graficzna ze zintegrowanym akceleratorem 3D.
1998 - 3Dfx Voodoo II .......... znaczące przyśpieszenie. 3Dfx wciąż bezkonkurencyjny.
1998 - nVidia Riva TNT .......... karta, która otworzyła drogę nVidii. 32 bit kolor, wysoka jakość obrazu.
1999 - TNT2, Voodoo3, G400 . i sporo innych. Prowadzi 3dfx, ale przez 16bit kolor traci zwolenników.
1999 - nVidia GeForce 256 ..... wprowadzenie T&L oraz pamięci GDDR. nVidia przejmuje koronę.
2000 - GF2 GTS, Voodoo4/5 ... Znaczące przyśpieszenie GeForce. Powolny upadek 3dfxa.
2001 - nVidia GeForce3 .......... DX8, programowalne shadery, bardzo wysoka wydajność.
2002 - ATi Radeon 8500 ......... Pierwsze uderzenie ATi. Wydajność zbliżona do GF4 Ti4200!
2002 - nVidia GeForce 4 Ti ..... Rozwinięcie wczesniejszej idei. Dla niektórych - GeForce 3,5
2002 - ATi Radeon 9700 ......... DX9, programowalne shadery 2.0, VideoShader, miażdząca przewaga.
2002 - nVidia GeForce FX ........Końcówka roku. Źle zaprojektowany procesor CineFX. Słaba wydajność.
2003 - ATI Radeon 9800 ........ Przyszybszona wersja radeona 9700. ATi wciąż na prowadzeniu.
2003 - Coraz więcej ATi ......... Od Radeona 9200 do Radeona 9800XT. nVidia opracowuje NV40.
2004 - NV 6800, ATi X800 ...... Nowe procesory graficzne. nVidia wprowadza SM3.0 - element DirectX 9.0c.
2004 - SLI, zapowiedź CF ...... Więcej kart z rodziny GF6. Reedycja SLI. Zapowiedź CrossFire od ATi.
2005 - NV 7800 GTX .............. Przedłuzenie linii GF6. 24 potoki, wysokie taktowania. ATi w dołku.
2005 - ATI X1800/1600/1300 . Długo oczekiwana premiera kart z rodziny X1000. Wprowadzenie CrossFire.
2005 - NV 7800 GTX 512 ........ Najszybsza obecnia karta graficzna wykorzystuąca stary już DirectX9.
2006 - G80, R580, PhysX ....... Nowe procesory graficzne, w tym procesor AGEIA do odzwierciedlania fizyki.

10 lat kombinowania ^^ Zauważcie jak wiele się działo w 1999 roku i w 2002 roku. Po roku 2002 prędkość
zmalała, za to wzmocnił się marketingowy bełkot. Pojawia się coraz więcej zupełnie niepotrzebnych kart,
których wysoka cena i niska wydajność (np. GeForce 6800XT) wprawia sporo osób w zakłopotanie.
Jeszcze do czasu GeForce4 dało to się jakoś ogarnąć, ale jak dodaje się mnóstwo dopisków tak, że
GF6600 staje się znacznie szybszy od 6800 to już dziadostwo.

Największym osiągnieciem w grafice 3D, był wprowadzenie akceleratora 3Dfx Voodoo.
W 1999 roku nVidia prezentuje GeForce256 z pamięciami DDR i wyznacza nowy kierunek rozwoju
wprowadzając sprzętowe przeliczanie geometrii i oswietlenia (T&L). Wytyczne nVidii zrójnowały 3dfxa, który
przeszedł na własność... nVidii. W roku 2001 nVidia poszła jeszcze wyżej - sztywna i w efekcie mało wydajna
jednostka T&L została zastąpiona przez programowalne jednostki VertexShader oraz PixelShader
Dla starego systemu T&L nVidia pozostawiła trochę tranzystorów icon_smile3.gif W ulepszonym silniku
nFinite w procesorach GeForce4 zwiększono wydajność shaderów. T&L zostało wyłączone (emulacja
z poziomu VertexShader). Kolejną małą rewolucją było wprowadzenie bardzo wygodnych dla programistów
shaderów w wersji 2.0. Linia kodu w PS została wydłużona do 160 instrukcji. Dokonało tego ATi w połowie roku 2002.
Cienowanie pixeli nabrało zupełnie nowej jakości. Światła i cienie stały się bardziej rzeczywiste.
Radeon 9700 nie jest wszakże rewolucją, ale z pewnoscią milowym krokiem w ewolucji gier spod znaku DirectX9.
Do dziś powiela się pomysły sprzed 3-ech (R9700), a moze nawet 5 lat! (GF3). Trzeba czekać. Ostatnie słowo
jak zwykle należy do Microsoftu ^^

85.198.193.* napisał:
Lumperator
Moze male dopowiedzenie.
Pierwsze polaczenie grafy 2d i akceleratora yblo wczesniej niz TNT. Probowal to Matrox ze swoim Mystique. W sumie spoko karta ale niezbyt wydajna w 3D(w porownaniu z voodoo wolna) oraz obslugiwala mniej efektow niz voodo.
Potem poraz pierwszy nVidia zaatakowala swoja riva 128(mialem ta karte icon_biggrin3.gif). Karta byla znacznie lepsza w 3D od Mystique ale jakosc grafiki 2D nie byla wzorcowa i Matrox wygrywal tutaj ale w 3D obslugiwane efekty byly te same(lub prawie te same) co w voodoo ale jakosc ogolna byla znacnzie nizsza od tej na voodoo(wiem bo mialem i jedna i druga karte) ale cena tej karty byla nizsza od voodoo i dostawalo sie za nia grafa+akcelerator i tak naprawde to byla pierwsza prawdziwa grafa laczaca dosc dobrze akcelerator i grafike 2D w jednym ukladzie. Ja pominolem ja specjalnie bo w tamtym okresie Riva128 zrobila mala rewolucje ale byla ona mala. Oraz wazna rzecz. Riva128 jako pierwsza karta potrafila przechowywac tekstury w pamieci komputera a grafa byla na PCI. Jednak ta karta miala troche wad a najwieksza wada bylo brak obslugi Glide jednak obslugiwala D3D i OGL i to calkiem znosnie ale jak napisalem wyzej dopiero RivaTNT odniosla prawdziwy sukces bo laczyla ze soba grafike 2D i akcelerator, z dobrej jakosci grafika 2D i 3D a w 3D mozna bylo uzyskac obraz zblizony do kart voodoo a nawet lepszy. Dlatego pominalem Rive128 o ktorej notabene powinienem przynajmniej wspomniec jednak nadal uwazam ze TNT byla wazniejszym produktem bo pierwszy raz tak naprawde pozycja 3dfx'a zostala zagrozona.
To takie male dopowiedzonko, jakby ktos kto nie pamieta tamtych czasow to aby wiedzial ze RivaTNT nie byla pierwsza karta laczaca w sobie grafike 2D 3D.

PS
O Voodoo rush nie wspominam bo karta byla w/g mnie nieporozumieniem. Slaba wydajnosc w porownaniu z voodoo, klopoty z kompatybilnoscia z glide(potrzebne osobne patche dla voodoo rush), oraz cena tez nie byla konkurencyjna. W Banshee 3dfx poprawil czesc bledow z Rusha ale wydajnosci(w porownaniu z V2) i niekompatybilnosc(glide nadal potrzebowal czesto osobnych patchow dla Banshee) nadal byly glowna wada tych kart. V3 bylo dopiero pierwsza karta 3dfx'a laczaca grafike 2D i 3D w jednej karcie w bardzo dobry sposob, mimo ze Banshee tez nie bylo zle ale na tamte czasy karta przecietniak.

sideband
V5 mialo podobnie jak dzisiejsze karty dodatkowe gniazdo zasilajace gdzie podpinalo sie molexa i karta pobierala cos okolo 80W nie pamietam dokladnie ile. karta jak na tamte czasy byla bardzo pradozerna i potrzebowala dobrego zasilacza 230-250W co w tamtym czasie bylo duzo. A wyzsze modele(4 procesorowe V6 czy jakos tak) mialy nawet zewnetrzny zasilacz. Te karty jak na swoje czasy byly bardzo pradozerne.

85.89.163.* napisał:

agp 25wat , agp pro 50wat

z tego co wyczytalem to agp pro moglo dac 110W ale niewazne http://www.geek.com/glossary/glossary_search.cgi?agp

Lumperator
CYTAT
1999 - TNT2, Voodoo3, G400 . i sporo innych kart (w tym S3 i ATi). Najszybsza TNT2.

dobry dowcip, voodoo3 bylo najszybsze tylko nie mialo 32bit i jakis tam innych zbednych fajerwerkow

a 3dmark nie daje wiarygodnych wynikow bo wykorzystuje wszystkie efekty jakie zostaly wymyslone, jak karta tego nie wykorzystuje to odrazu jej wynik jest zdecydowanie mniejszy, 3dmark to test syntetyczny mogacy tylko przetestowac architekture, wydajnosc sie sprawdza w grach

194.29.137.* napisał:

1996 - S3 Virge - pierwsza karta 3D (2 efekty 3D ,ktorych uzycie powodowalo spadek wydajnosci)
1996 - 3Dfx Voodoo 4MB ....... rewolucyjny akcelerator 3D, całkowity przewrót na rynku gier.
1997 - 3Dfx Voodoo II .......... znaczące przyśpieszenie. 3Dfx wciąż bezkonkurencyjny. 1997 - Riva128 ,karta 5D :]
1998 - nVidia Riva TNT .......... zintegrowany akcelerator 3D, 32 bit kolor, duze tekstury 1998 - RivaTNT i Voodoo2 -3Dfx na prowadzeniu
1999 - TNT2, Voodoo3, G400 . i sporo innych kart (w tym S3 i ATi). Najszybsza TNT2.Najszybsze Voodoo3 (juz 2000 bylo szybsze od rivyTNT2 Leadteka z taktowaniem 140MHz ,3000 zamiatalo wszystko co bylo na rynku)
1999 - nVidia GeForce 256 ..... wprowadzenie T&L, GDDR, zdecydowane prowadzenie.Nie takie zdecydowane w stosunku do V3 3500 ,ale fakt ze GF256 ddr byl najszybsza karta


patrz ile spartoliles na poczatku ,w reszte nie wnikalem

80.48.127.* napisał:

z tego co wyczytalem to agp pro moglo dac 110W ale niewazne http://www.geek.com/glossary/glossary_search.cgi?agp

Lumperator

dobry dowcip, voodoo3 bylo najszybsze tylko nie mialo 32bit i jakis tam innych zbednych fajerwerkow

a 3dmark nie daje wiarygodnych wynikow bo wykorzystuje wszystkie efekty jakie zostaly wymyslone, jak karta tego nie wykorzystuje to odrazu jej wynik jest zdecydowanie mniejszy, 3dmark to test syntetyczny mogacy tylko przetestowac architekture, wydajnosc sie sprawdza w grach

też widziałem to 110wat i 50wat agp pro ale biore pod uwage 50wat , bo 110wat mało możliwe ,bo z pci-express można pociągnąć 75wat ,a odnośnie kyro , kyro miało t&l ale programowe czyli dało rade uruchomić gre która wymagała t&l dlatego zgodna z dx7 , voodoo 5 nie obsługiwał programowo ani sprzętowo t&l

85.89.163.* napisał:
voodoo5 mialo cos programowego (w sterach byla opcja), nie zawsze to dzialalo ale 3d mark2001 dzialal z na t&l i nawet znacznie szybciej

83.24.6.* napisał:

patrz ile spartoliles na poczatku ,w reszte nie wnikalem


Poprawiam błędy KGB. faktycznie za bardzo pisane z wytartej pamięci. icon_wink3.gif

85.89.163.* napisał:

Pomyłka. Rzeczywiscie Voodoo3 było sposród obecnych kart najszybsze.
Masz rację, mój błąd. Za szybko chcę skreślić 3dfxa ^_- Ale to nie zmienia faktu,
że brak obsługi 32bitów to porażka sleep.gif

nie, przy ditheringu 3dfxa (niby 22bit) obraz byl identyczny jak na 32bitach (no chyba ze pod lupa), q3 wygladal identycznie, juz bardziej denerwujacy byl brak obslugi wielkich tekstur
32bit i t&l byly tylko pretekstem do zniszczenia 3dfx, i niestety im sie to udalo, niestety reklama zrobila swoje i nikt nie widzial zalet 3dfxa takich jak: znakomita wydajnosc, swietny obraz, najlepsze stery jakie kiedykolwiek ktos napisal, zero problemow z kompatybilnoscia, glide
oby to samo sie nie stalo z ati, wszyscy psiocza na brak sm3.0 ale komu to jest potrzebne? nvidia potrafi tylko zrobic zamieszanie ale na szczescie im to nie wychodzi, ati chyba ma zbyt silna pozycje na rynku i dobra polityke


83.24.6.* napisał:
To prawda, nVidia lubi robić zamieszanie. Jeszcze gdy starała się o dobrą pozycję na rynku, karty były w porządku.
Później zaczęły się sypać szmelce typu GF2 MX 32bit, później GF4 MX, seria FX. Pod presją ATi tworzą też
porządne grafy, na których da się jeszcze pograć - GF3, GF4Ti.

Nie zgodze się jednak co do 22bitów w Voodoo3
Prawie każda nowa gra na TNT2 wyglądała LEPIEJ niż na Voodoo3!
Różnice miedzy trybami 16, 22 i 32 były miejscami małe, a miejscami bardzo duże.
Tylko jak mówię, do tego nie każdy przykładał tyle uwagi. Na byle jakim monitorze
15" czasem na lepszym 17" ludzie po prostu nie widzieli różnicy. Ale kto chciał
to zobaczył. Kto wie jak wyglądałby rynek, gdyby jednak 3dfx wrzucił duze tekstury
i obsługę kolorów w trybie 32 bitów.

Nie zgodzę się również co do SM3.0. Moża nazwa nie jest trafna (wystarczyłby
ShaderModel 2.1), ale skoro Microsoft dodał to do DirectX, to jakiś sens w tym jest.
Ułatwia programowanie ?? Być może, ja programistą 3D nie jestem i ty chyba również ^_-

85.89.163.* napisał:
nie nie jestem (programowianie obiektowe jest do ..... laugh.gif ), moze i ulatwolo programistom ale skoro z tego nie korzystaja to po co wmawiac ludziom ze jest jak najbardziej potrzebne? dlatego poi bedzie porzadna konkurencja to nvidii mowie NIE a 3dfx na zawsze pozostanie niedoscignionym wzorem, mojego voodoo5 5500 nigdy nie sprzedam icon_wink3.gif

62.111.225.* napisał:
Dobra może ktos jest zainteresowany Voodoo3 3000 i chciałby kupić , bo umnie to leży.
Nawet kiedys zrobiłem zrzut z everesta co i jak tam było. Ale teraz nie mam do tego dostępu ale wiem że karta miała chyba 1 potok i w porównaniu do radeona 9800 to była przepaśc.
Jak dla mnie Voodoo 3 3000 to jest świetna karta. Można zagrać we wszystkie tytuły z roku 99 lub 2000. Pamiętam że Max Payn dopiero ja przymulał a tak to UT Q3 return to castle Wolfenstain i wiele innych gierek śmigało aż miło. Divx też na niej wygląda super.
Największa wada to brak sterowników pod Win XP (orginalnych)

85.89.163.* napisał:
eeee ja gralem w maxa na v3 2000 i chodzil zupelnie przyzwoicie a stery oryginalne to sa i zawsze byly, pamietaj ze po wykupieniu 3dfx'a stery byly pisane nadal przez programistow 3dfxa tyle ze pod inna nazwa, i one nie mialy tylko podpisu cyfrowego microsoftu ktory jest nam bardzo potrzebny, pod xp voodziak dzialal bez zadnych problemow
btw: ile chcesz za te karte? za 20pln to byl jeszcze wzial a chetnie bym kupil voodoo3 3500

83.24.6.* napisał:
Myślę, że przesadzasz z uwielbieniem do 3dfx-a. Gardzisz konkurencją,
która okazała się lepsza i zniszczyła twoją ulubiona firmę... ba
ona ja wchłonęła. nVidia ma w sobie kawałek 3dfx-a tak jak Creative
Aureala. Cóż, teraz obie firmy odświeżają pomysły pionerów sprzed lat.
Szkoda, że robią to w otoczce chorego marketingu. Na niektórych
reklamach Creative przeczytac możemy:

"Jakość twoich mp3 lepsza niż Audio CD" - śmiać się czy płakać ????

Z początku byłem bardzo ciekawy co to jest ten rewolucyjny X-Fi
z poprawą jakości mp3, pozycjonoiwaniem dźwięku w słuchawkach itd.
Kupa taniego bajeru, część zerżnięta z Vortexa... przereklamowana karta
totalnie lolowatymi hasełkami. Przyciąga jednych, odpycha drugich.

3Dfx i tylko 3Dfx. O innym 3dfx nie chcę słyszeć icon_razz.gif

194.29.137.* napisał:

odnośnie kyro , kyro miało t&l ale programowe czyli dało rade uruchomić gre która wymagała t&l dlatego zgodna z dx7 , voodoo 5 nie obsługiwał programowo ani sprzętowo t&l

jakie tam programowo?
takie programowe to moze miec i Virge jak ktos napisze - T&L w calosci odwali procesor
chodzi o to ze KYRO wyszlo w 2001r i bez T&L rozwalalo swiezutkiego "pelnego" gf2mx400 (175/200) ,przy czym za Herculesa (125/125) w komputroniku dalem 275pln ,a najtanszy no-name gf2mx200 kosztowal 312pln
pomyslalem sobie - a,kupie na probe (brakowalo mi 100pln do gf2gts) no i tak probowalem przez 4 lata cool.gif

Lumperator
moze i cmsydney jest fanatycznym wyznawca voodoo ,ale ty tez palasz miloscia do Nvidii icon_razz3.gif

a przeciez najlepsza firma robiaca grafy ,nie zbankrutowala ,nikt jej nie wchlona ,jej technika jest wciaz niedoscigniona ,wiec pytam sie:
gdzie jest do cho.le.ry KYRO 3 ? mad.gif dlaczego PowerVR sobie odpuscilo dry.gif

80.48.127.* napisał:
tylko kyro miał specjalny program do emulacji t&l , pozostałe karty nie wspierające t&l nie miały możliwości emulacji t&l , bo nie było programu do emulacji t&l

85.89.163.* napisał:

tylko kyro miał specjalny program do emulacji t&l , pozostałe karty nie wspierające t&l nie miały możliwości emulacji t&l , bo nie było programu do emulacji t&l

voodoo mialo opcje w sterownikach, wiem bo mialem i sprawdzalem

CYTAT
moze i cmsydney jest fanatycznym wyznawca voodoo ,ale ty tez palasz miloscia do Nvidii

wyznawca nie ale sentyment mam, bo 3dfx robil najlepsze karty, teraz widzac to co nvidia robi to mozna sie zalamac, same gnioty, wszysttkie swietne patenty 3dfxa poszly na smietnik, nic nie wykorzystali, ati tez nie jest duzo lepsze...... ehhh

62.111.143.* napisał:
wie ktos co sie stalo z tymi finskimi "bit boys" ? [tak sie chyba jakos nazywali, mieli cos super zrobic icon_smile3.gif]

83.24.6.* napisał:
cmsydney

Jak to same gnioty ?? GF3 to gniot ? GF4 Ti to gniot ? GF6800 to też
gniot ? To ja nie wiem co ty chcesz. Jak to patenty 3dfxa na śmietnik?
Skąd wiesz co oni wyrzucają na smietnik? Jakoś SLI ożywili. Dumnie
nalepiają na to swoje logo bo mają do tego prawo. Jesteś tak bardzo
wściekły na nVidię, że do dziś nie chcesz ani jednego GeForce? To może
sporóbuj z Radkiem X800. Twój "mocarny" Voodoo5 to przy nim
pchła. Voodoo5 to nieporozumienie po całej linii. 3Dfx był wielki, ale
wprowadzając Voodoo3 po prostu nie pomyśleli, jak znaczącym argu-
mentem w walce o przetrwanie będzie 32 bitowy kolor. Później już
było za późno.

KGB

3Dfx to KULT koniec kropka icon_smile3.gif nVidię doceniam za nowe
podejscie do grafiki. Dzięki innowacjom w GeForce3, dziś mozemy się
cieszyć grami w zupełnie nowej szacie. To logiczne, ze postęp miałby
miejsce niezaleznie od producenta, ale los chciał, aby to nVidia była
jego orędownikiem. Biore też pod uwagę znaczący udział ATi w tym
postępie. Ta firma wielem już pokazała i kto wie czym jeszcze nas zaskoczy.

85.89.163.* napisał:
no dobra ok, voodoo3 to nieporozumienie, to wytlumacz mi dlaczego sprzedawalo sie jak cieple buleczki? voodoo nie mialo jak ty to piszesz znaczacych argumentow a ludzie nie zwracali na to uwagi, bo raz ze nie mialo to zadnego znaczenia a dwa karty 3dfxa mialy najwyzsza jakosc, chyba mi nie powiesz ze z tnt2 czy geforce nie bylo problemow, jako ze nvidia miala gorszy produkt to wykorzystala zla sytuacje 3dfxa i ja wykupila, tylko w ten sposob mogla zdobyc rynek i pozbyc sie najpowazniejszego konkurenta, voodoo5 to nieporozumienie? owszem bylo juz widac upadek 3dfxa ale nadal byla to swietna karta i miala to cos czego geforcom brakowalo, i kolejnym kartom nadal tego brakuje, sli tak swietnie to zrobili, cofneli sie do czasow voodoo2, prawda jest taka ze ati zaczelo mocno ich naciskac i szybko stworzyli cos by nadrobic wydajnoscia, dwie karty w kompie, po co? o sli w voodoo5 zapomnieli. ati tez jest nie lepsze, co robi nvidia to ati tez ..... crossfire, bo kiego grzyba???

83.24.48.* napisał:
"voodoo nie mialo jak ty to piszesz znaczacych argumentow a ludzie nie zwracali na to uwagi, bo raz ze nie mialo to zadnego znaczenia"

W marketach mało kto zwraca uwagę na cokolwiek. Co jest to się bierze, magia marketów sleep.gif

jako ze nvidia miala gorszy produkt to wykorzystala zla sytuacje 3dfxa i ja wykupila

Chyba GO wykupiła a nie ją. Gdyby NVidia miała złą sytuację z TNT i GeForce to nie mieliby kasy z tych produktów i nie wykupiliby
3dfxa, który sprzedawał Voodoo3 jak... ciepłe bułeczki? To ja chyba o czymś nie wiem sleep.gif

owszem bylo juz widac upadek 3dfxa ale nadal byla to swietna karta i miala to cos czego geforcom brakowalo, i kolejnym kartom nadal tego brakuje

A niby czego im brakuje? Ty chyba naprawdę popadasz w fanatyzm.



85.89.163.* napisał:
hehe markety, widziales voodoo w markecie? a widziales moze jakiegos pelnego geforce'a w markecie? w marketach daja same gnioty pokroju geforce mx, czyli jednym slowem karty okrojone najtansze badz zintegrowane
zla sytuacja nie w znaczeniu ze nie mieli kasy, chodzi mi o to ze ich produkty byly gorsze i nie sporzedawaly sie jak voodoo, ktore niby mialo gorsza architekture, i to jest to cos o czym wspominam, fajerwerkow nie mial, ale mial to cos, nie umiem tego opisac ale ja nadal czyje roznice jak odpalalem gre na voodoo a np teraz, w dzisiejszych czasach producenci tylko zgarniaja kase i olewaja klientow

83.24.48.* napisał:
No to mów, ze chodzi o gry, które za czasów Voodoo miały lepszy klimat
Karta graficzna to tylko elektronika, która pociągnie dany tytuł bądź też nie.

194.29.137.* napisał:
NV zrobila wieksza kase ,bo byla w kazdym segmencie rynku
voodoo3 2000 zaczynalo sie od 500pln ,a to duzo i cos mi sie wydaje ze w wyzszych kategoriach cenowych to 3dfx prowadzil
ale karty zaczynaly sie od 200pln ,gdzie byla NV ze swoimi super gniotami TNT2 m64 i Vanta , S3 ,ATI ze starymi modelami ,a 3dfx wszedl za pozno z v3 100/1000 8mb
wiadomo ze najwiecej zarabia sie na tanich kartach ,a pamietajmy ze wtedy najdrozsza karta bylo v3 3500 za 1100pln ,a nie jak teraz 3000pln za karte
widac jak sie sprawa ma gdy spojzymy na Matroxa - malo wydajny i drogi - skonczyl jak skonczyl - gdyby nie profesjonalka to by go NV wykupila :]
pamietam jak wszedl Creative GeForce256 SDRam to kosztowal 1400pln - niewyobrazalna suma jak na tamte czasy

wiec 3dfx nie musial upasc ,ale nie mogl miec wiecej kasy niz NV i nie wierze by NV tego nie wykorzystala ,tak jak wyszlo Kyro i NV chciala wykupic PowerVR

85.89.163.* napisał:
nie chodzi mi o klimat gier, karta graficzna to tylko elektronika ale ktora trzeba dobrze oprogramowac, a z tym teraz sa najwieksze problemy, jestesmy olewani na maska i widac to na kazdym kroku

83.24.48.* napisał:
Jedno małe ale.

GTX na wejściu nie kosztował 3000 tylko gdzieś około 2200-2400 zł.
To jest o 10 baniek więcej niż GF256. Tylko GF256 wyszedł ponad
5 lat temu, miał 1 Ramdac, lipne wspomaganie MPEG-2... itd.
Spójrz co sie działo wczesniej. Karty graficzne wcale nie były tańsze.
Stanowiły jeden z najdroższych elementów do kompa. A jak ktoś
chciał nowego G400Max ? To była potworna kasa - 1300 zł.

cmsydney

ATi trochę buja się ze swoimi sterami. nVidia pod tym względem wypada
sporo lepiej. Sporo problemów tworzą sami twórcy - za dużo niepotrzebnych kart.
Za czasów 3Dfxa nie było takiego bałaganu.

83.27.90.* napisał:
Witam ponownie,

Rzeczywiście - maaaalutki Offtopic się zrobił ale mniejsza z tym. Nawiązała się ciekawa dyskusja i można się wiele z nij dowidzieć.


Na AGP Pro swoje Voodoo odpaliłem - działa jak na zwykłym AGP - potwierdza się to, że uczestnicy forów wiedzą lepiej niż "profesjonaliści" z serwisów/sklepów ;p. AGP Pro ma tą "4 x" krotność, ale mojej karcie to nie służy gdyż AGP 4x dla V5 to lipa.

Boję się co będzie jak będę zmieniał kompa - ATI czy zła NV icon_biggrin3.gif? Pozdrawiam.

PS. Respect dla cmsydney (Za wytrwałość na przekór wszystkiemu), Lumperatora, KGB, Sucker'a i Chomika (Za profesjonalne podejście) icon_biggrin3.gif.

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 4.41 | SQL: 1 | Uptime: 753 days, 10:39 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl