Temat
SLI wraca
24.55.128.* napisał:
http://graphics.tomshardware.com/graphic/20040628/index.html83.27.1.* napisał:
niezla plytka, pozatym niezla sprawa
3dmark czeka
212.76.39.* napisał:
Rozwiązanie równie ekstremalne jak kiedyś Voodoo SLI. Cholernie kosztowne ale gdy tylko powstaną płyty główne (narazie jest chyba tylko jedna z tego co się doczytałem w artykule) obsługujące taką architekturę, to Nvidia bezdyskusyjnie obejmie prymat w wydajności.83.27.154.* napisał:
byl juz o tym topic83.31.17.* napisał:
Mi sie bardzo to podoba jak stanieją 6800 to morze sie bardziej opąłcać 2 6800 niż np jego nastęce:D217.99.134.* napisał:
Kwestia czasu jest gdy i ATI zastosuje SLI. Dziwi mnie tylko fakt ze skoro w epoce voodoo2 znano juz te technologie dlaczgo dopiero teraz ja odswiezono.83.31.17.* napisał:
bo agp mogło byc tylko jedno. więc niedało rady tego zastosowac na kartach agp24.55.128.* napisał:
to nie jest kwestia czasu tylko patentu (nvidia ma od voodoo)
wiec pewnie jest to dobrze opatentowane skoro zadna firma w czasach epoki voodoo nie zrobila kart na sli, przynajmniej z tego co wiem, moze sie myle,
wedlug mnie to swietna sprawa to SLI
83.31.17.* napisał:
Megabate chyba próbował zrobić cos takiego że by były 2 karty które by pracowały na zasadzie sli nvidi czyli 50% ekranu dla jednej karty. ale im to niewyszło bo podobno obraz na miejscu łączenia rojezdżał sie na dwie połówki dlatego nic z tego niewyszło pozatym była jeszcze kwestia optymalilizacji sterów.Zastanawialiście sie nad tym że jeżlei jest sli działające na zasadzie dzielonego ekranu to np dla przykładu gry nascar karta na dole renderując kokpit i te przyżądy ma dużo mniej do roboty niż karta renderójąca szybę i to co przed nia przez co karta renderująca dół zrobi to znacznie szybciej i musi czekać na karte góną. przez co to sli ogranicza wydajnosc karty która ma wiecej do roboty
217.99.133.* napisał:
Moze ekran dzielony bedzie w pionie Skoro 3Dfx wymyslil wykorzystanie kilku procesorow graficznych na raz to moze SLI dzilac bedzie na podobnej zasadzie, wykorzystywania potencjalu obu kart w jednej chwili. Poczekaj jak nvidia zastosuje technologie 3Dfx'a, w ktorej to na jednej PCB umiesci 4 chipy np. GF6800 GT83.31.17.* napisał:
nie obraz będzie dzielny w poziomie. W sumie ciekawe czemu nie myśłą o tym by karzda klataka była morze dzilon w jakimś stopni w zależności od stopnia skomplikowania danej części obrazu np na 70% do 30% dla kart lepiej by było i morzna by było więcj mocy kart wykorzystać217.99.133.* napisał:
A pewnien jestes ze SLI od nv bedzie dzielic obraz?24.55.128.* napisał:
w tym artykule jest wyjasnone jak to bedzie dzialalo
i nie jest tam wcale powiedziane ze karty beda mialy po pol ekranu, jedna moze miec 2/3 a druga 1/3 zalezy ile detali jest na dole/ u gory ekranu
83.31.83.* napisał:
Hmm Macie się nad czy, zastanawiać
Co do SLI - jest to rozwiązanie ciekawe, ale wg. mnie nie znajdzie zastosowania w wielu domowych kompach. Przecież nikt nie będzie pisał gier wymagających 2 kart, no nie? Dlaczego tak niewiele osób ma 2 procki w domu? Sami przecież znacie odpowiedź. Jest to rozwiązanie, które znajdzie IMO zastosowanie tylko w kompach o/cerów lub jakichś profesjonalnych stacjach graficznych.
217.99.133.* napisał:
No wlasnie?
217.99.133.* napisał:
Tak szybko zapomnimy o SLI jak o dwuprocesorowej technolgii.83.26.8.* napisał:
no spoko tylko jaka zasiłke do takich 2 potworów ??:> bo same karty beda chciały 4 molexy to nie ciekawa sprawa sei robi83.31.83.* napisał:
Może być GT - wtedy 2 molexy. Poza tym możesz sobie zrobić konfiguracje z 2 zasiłkami, wtedy problem z głowyA o stacjach dwuprocesorowych nikt nie zapomniał, są nadal w miarę często stosowane w serwerach a i w kilku domowych kompach by się 2 proce znalazły. Chyba, że chodzi o 2 GPU, ale odświerzenie tej technologi to IMHO tylko kwestia czasu...
83.31.17.* napisał:
przecież jak ktoś nieche nie musi kpowac 2 kart. mnie t technologa bardzo zaciekawiła i myśłe że mogli by ją wpowadzać do karzdej karty co jest na rynku, Tylko pamiętajcie o ryzyku jakie to niesie poducenici gier zaczną robic gry coraz ładniejsze i wymagające coraz większej mocy obliczeniowej lub tez zaczną coraz gozej je optymalilizowac bo przecież bedziemy mieć 2 karty któe sa potężne i jakoś sobie poradzą. pozatym do 2 kart trzeba mieć niezły procek by nadażyłza dostarczaniem danych do kart.81.190.135.* napisał:
nic tylko czekać na nową płyte główną na nforsie z obsługą dwóch PCI-exp x16 i dwóch procyków po 5ghz każdy.fajnie by było mieć takie coś w domku
213.76.212.* napisał:
fajne to, np miec takie chocby 2 GF4 Ti 4200, to lepsze od jednego radka 9800 pro czy xt, w cenie nie wiecej jak 800zł83.16.22.* napisał:
Cytat z nvision.pl:CODE
Oczywiście rozwiązanie to jest całkowicie sprzętowe i nie wymaga żadnego wsparcia danej aplikacji. Oznacza to, że przypływ mocy dostaniemy w każdym programie - czy to jest 3DMark03, Doom3, Quake2 czy też 3DStudioMAX, Maya
Także nic nie trzeba pisać od nowa i pod taki konfig kart.
217.225.78.* napisał:
Moga rederowac co druga linie...wtedy sie wszystko rozklada
213.76.212.* napisał:
albo kazda karta poszczegolne efekty, jedna renderuje jakies shadery, a inne filtrowania, cienie i takie tam80.55.38.* napisał:
Możę to będzie i dobre ale za kilka lat jak kogoś będzie stać zapłacić za dwie VGA bo narazie jakoś nie usmiech mi się wydać 5oooPLN na samą grafikę, skoro 2 procesorowe komputery są tak popularne to dlaczego ja osobiście znam 1 osobę na forum która ma taki komputer ? dlaczego większośc urzytkowników woli jednego bartona m od dwuch ? powiem dlaczego : DUŻO taniej, płyty pod jeden procesor mają lepsze możliwości o/c.Kombinujecie strasznie podejżewam że nvidia doskonale wie co robić i czy podzieli ekran na 2 częći czy to będzie na zasadzie przeplotu to będzie działać lepiej od metody której nie zastosują, jeśli ktoś uwarza że wie lepiej od nich to nich szybko biegnie opatentować swój pomył i karze NV płacić za wykorzystanie tego w swoich kartach
62.233.169.* napisał:
Sli owszem bylo fajne ale pozostawialo bardzo wiele jesli idzie o jakosc obrazu - w koncu kazda karta trzepala co druga linie co owocowalo nie zawsze pelna synchronizacja obrazu (czasem te linie rozchodzily sie)SLI to byl dobry pomysl kiedys, dzisiaj lepszym pomyslem byloby wypuszczenie kart z dwoma zlaczami (np 2 x agp) zamiast mozliwosci dokupienia dodatkowej grafy.
Wyobrazcie sobie 2 x gf6800 w jednym kompie - trzeba by chyba 230 z kontaktu podlaczyc do nich
Kiedys zapewne SLI wyszlo troche jako efekt uboczny i wykorzystano to fajnie ,a le nie pamietam by nagle wszyscy hurtem rzucili sie na 2 monstery
83.31.29.* napisał:
ale czemu cały czas móice o 6800 przecież jeżlei to się stanie popólarne to moga to dawać do słąbszych kart. albo jak 6800 stanie się słabszą kartą to sie kupi takie 2 i będzie to lepszeniż np: jakiś nowy 780083.31.138.* napisał:
Ja to widze w ten sposob... Kiedy 1 grafa bedzie nam malo, mamy 2x PCI itd. No coz, dokupujemy 2 grafe, to jest piekno tego ukladu...62.233.169.* napisał:
Raczej watpie. Praktyczniej dla firmy jest wprowadzic nowsza technologie i czerpac z tego zyski niz bawic sie w takie polrozwiazania . Dawniej wprowadzono cos takiego bo nie dalo by rady nic nowszego wprowadzic na tamte czasy ( w koncu jeszcze nawet agp nie bylo) wiec najnizsza linia oporu wykorzystano bajer SLI - w malym nakladem bardzo duzo zyskano, jak znam zycie to SLI doszlo w ostatniej fazie planowania produktu i to w tej czystko softwaerowej jesli chodzi o bios, bo konstrukcji karty i tak nie trzeba bylo zmieniac.Dzisiaj racze jnei stawial bym na SLI, szybciej wchodza nowinki, AGP to juz przezytek, niedlugo dostanie nastepce tak samo jak ten nastepca swojego nastepce. Ponadto patrzac na osiagi i cene, to taniej wyjdzie wprowadzenie nowego ukladu na rynek niz bawienie sie w dublowanie 2 starych, a zanim ktos dozbiera kapuste na drugiego 6800 to okaze sie ze na horyzoncie jest juz nastepca z nowa porcja nowinek i bedzie kosztowal praktycznie tyle samo co 2x 6800 (akurat daje ta karte dla przykladu, nie wyobrazam sobie potrzeby implementowania SLI w wolniejszych ukladach - marnowanie niepotrzebnie potencjalu jaki plynie z nowszej technologii oraz kasy)
81.168.221.* napisał:
Druga karta sie bedzie przegrzewala - mianowicie zerknijcie na chlodzenie 2 karty - bedzie wciagala gorace powietrze z tylu karty pierwszej, a do tego siedziala w niezlym scisku...83.16.22.* napisał:
CODE
Drugim sporym problemem poprzedniego rozwiązania SLI była synchronizacja kart. Karty połączone w 3dfxowe SLI renderowały naprzemiennie linie obrazu. Niestety taka współpraca nie była najlepsza, ponieważ spadała i to znacznie jakość obraz (głównie przez analogowe połaczenie oraz różnice pracy układów DAC). NVIDIA korzysta z nieco innej metody. Pojawiła się ona rok po prezentacji 3dfxowego SLI i jej rozwojem zajęła się firma Metabyte. SLI NVIDIA ma tylko taką samą zasadę rozkładu danych pomiędzy GPU. Czyli każdy z GPU może renderować np. po połowie klatki (dzieli się ją poziomo). Napisałem może, ponieważ dzięki w pełni cyfrowym wymianom danych między ramkami oraz [b]zaawansowanym algorytmom rozkładającym równomiernie obciążenie między GPU pozwala na uzyskanie maksymalnej prędkości [/b]przy zerowej stracie jakości obrazu.
Sprzętowe równomierne rozkładanie obciążenia na 2 GPU to świetna sprawa. Karta renderuje tyle ile zdąży przed drugą dzięki temu można prawie maxymalnie wykorzystać GPU. Bardzo dobry pomysł.
194.156.44.* napisał:
pewnie ze super ale pod warunkiem ze takie 2 uklady zintegrowane sa w calosc, a przy czyms takim jak SLI nie ma mowy o pelnej synchronizacji miedzy ukladami, a nawet jak by chciec zrobic pelna synchronizacje to za wiele by to zajelo czasu (na synchronizowanie)193.151.96.* napisał:
No i 20.000 pękło62.233.169.* napisał:
No i ciekawe ile w tym sciemy, bo jesli tak jak ostatnio to ja bardzo podziekuje za takie wyniki.3dmark tak naprawde dobrze wiemy ze nie jest miarodajny bo brakuje w nim bardzo wielu detali ktore maja kolosalny wplyw na predkosc. No ale zaden test nie jest w 100% miarodajny, tak czy siak nei ma sie co podniecac punktami w 3dmarku, ja wole przelozenie na jakoes konkretne gry
213.76.212.* napisał:
no ale widac porownanie co do innych graf, jak na takim radku 9800 jest ok 6000pkt, tzn ze okolo 3 razy szybszy jest podwojny GF 6800GT62.233.169.* napisał:
lol, rozbawiles mnieTo wcale nie znaczy ze jest 3 razy szybszy, tylko zwroc tez uwage jakie kongo wyszlo z oszustwami na 3dmarku i nie mowie tu tylko o 6800 ale o wczesniejszych zabiegach nvidii w poprzednich markach dla mnie 3dmark przestal byc miarodajny po pierwszej aferze z oszukiwaniem na punktach
Podobne tematy
SLI: pierwsze testy 6600GT i 6800GT :D
Co Myslicie O Geforcefx 5700 I Fx5900 ?
2x6600gt Na Sli Czy 6800gtx1?
6600 Sli Nie Gt
Sli I Overclocking
Sli Bez Sli
Nvidia Geforce 7800 Gtx + Sli
Problem Sli
Co Myslicie O Tej Karcie?
2 X Geforce 7800 Gtx W Sli
2x 6600gt W Sli? Czy To Wogóle Ma Prawo Bytu?
"problem" Z Sli
Quad Sli
2x6800gt - Nie Wykrywa Trybu Sli!
Co Myslicie O Geforcefx 5700 I Fx5900 ?
2x6600gt Na Sli Czy 6800gtx1?
6600 Sli Nie Gt
Sli I Overclocking
Sli Bez Sli
Nvidia Geforce 7800 Gtx + Sli
Problem Sli
Co Myslicie O Tej Karcie?
2 X Geforce 7800 Gtx W Sli
2x 6600gt W Sli? Czy To Wogóle Ma Prawo Bytu?
"problem" Z Sli
Quad Sli
2x6800gt - Nie Wykrywa Trybu Sli!
Działy
Copyright © 2002-2024 | Prywatność | Load: 2.26 | SQL: 1 | Uptime: 58 days, 21:18 h:m |
Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl