heh.pl
Kanał informacyjny Heh.pl


Sobota 4 maja 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

SLI wraca


24.55.128.* napisał:
http://graphics.tomshardware.com/graphic/20040628/index.html

83.27.1.* napisał:
user posted image


niezla plytka, pozatym niezla sprawa icon_surprised3.gif
3dmark czeka

212.76.39.* napisał:
Rozwiązanie równie ekstremalne jak kiedyś Voodoo SLI. Cholernie kosztowne ale gdy tylko powstaną płyty główne (narazie jest chyba tylko jedna z tego co się doczytałem w artykule) obsługujące taką architekturę, to Nvidia bezdyskusyjnie obejmie prymat w wydajności.

83.27.154.* napisał:
byl juz o tym topic

83.31.17.* napisał:
Mi sie bardzo to podoba jak stanieją 6800 to morze sie bardziej opąłcać 2 6800 niż np jego nastęce:D

217.99.134.* napisał:
Kwestia czasu jest gdy i ATI zastosuje SLI. Dziwi mnie tylko fakt ze skoro w epoce voodoo2 znano juz te technologie dlaczgo dopiero teraz ja odswiezono.

83.31.17.* napisał:
bo agp mogło byc tylko jedno. więc niedało rady tego zastosowac na kartach agp

24.55.128.* napisał:

to nie jest kwestia czasu tylko patentu (nvidia ma od voodoo)
wiec pewnie jest to dobrze opatentowane skoro zadna firma w czasach epoki voodoo nie zrobila kart na sli, przynajmniej z tego co wiem, moze sie myle,

wedlug mnie to swietna sprawa to SLI

83.31.17.* napisał:
Megabate chyba próbował zrobić cos takiego że by były 2 karty które by pracowały na zasadzie sli nvidi czyli 50% ekranu dla jednej karty. ale im to niewyszło bo podobno obraz na miejscu łączenia rojezdżał sie na dwie połówki dlatego nic z tego niewyszło pozatym była jeszcze kwestia optymalilizacji sterów.

Zastanawialiście sie nad tym że jeżlei jest sli działające na zasadzie dzielonego ekranu to np dla przykładu gry nascar karta na dole renderując kokpit i te przyżądy ma dużo mniej do roboty niż karta renderójąca szybę i to co przed nia przez co karta renderująca dół zrobi to znacznie szybciej i musi czekać na karte góną. przez co to sli ogranicza wydajnosc karty która ma wiecej do roboty

217.99.133.* napisał:
Moze ekran dzielony bedzie w pionie icon_wink2.gif Skoro 3Dfx wymyslil wykorzystanie kilku procesorow graficznych na raz to moze SLI dzilac bedzie na podobnej zasadzie, wykorzystywania potencjalu obu kart w jednej chwili. Poczekaj jak nvidia zastosuje technologie 3Dfx'a, w ktorej to na jednej PCB umiesci 4 chipy np. GF6800 GT icon_biggrin3.gif

83.31.17.* napisał:
nie obraz będzie dzielny w poziomie. W sumie ciekawe czemu nie myśłą o tym by karzda klataka była morze dzilon w jakimś stopni w zależności od stopnia skomplikowania danej części obrazu np na 70% do 30% dla kart lepiej by było i morzna by było więcj mocy kart wykorzystać

217.99.133.* napisał:
A pewnien jestes ze SLI od nv bedzie dzielic obraz?

24.55.128.* napisał:

w tym artykule jest wyjasnone jak to bedzie dzialalo
i nie jest tam wcale powiedziane ze karty beda mialy po pol ekranu, jedna moze miec 2/3 a druga 1/3 zalezy ile detali jest na dole/ u gory ekranu

83.31.83.* napisał:


Hmm icon_rolleyes.gif Macie się nad czy, zastanawiać icon_wink3.gif
Co do SLI - jest to rozwiązanie ciekawe, ale wg. mnie nie znajdzie zastosowania w wielu domowych kompach. Przecież nikt nie będzie pisał gier wymagających 2 kart, no nie? Dlaczego tak niewiele osób ma 2 procki w domu? Sami przecież znacie odpowiedź. Jest to rozwiązanie, które znajdzie IMO zastosowanie tylko w kompach o/cerów lub jakichś profesjonalnych stacjach graficznych.

217.99.133.* napisał:


No wlasnie? icon_wink3.gif icon_lol.gif

217.99.133.* napisał:
Tak szybko zapomnimy o SLI jak o dwuprocesorowej technolgii.

83.26.8.* napisał:
no spoko tylko jaka zasiłke do takich 2 potworów ??:> bo same karty beda chciały 4 molexy to nie ciekawa sprawa sei robi icon_wink3.gif

83.31.83.* napisał:
Może być GT - wtedy 2 molexy. Poza tym możesz sobie zrobić konfiguracje z 2 zasiłkami, wtedy problem z głowy icon_wink2.gif

A o stacjach dwuprocesorowych nikt nie zapomniał, są nadal w miarę często stosowane w serwerach a i w kilku domowych kompach by się 2 proce znalazły. Chyba, że chodzi o 2 GPU, ale odświerzenie tej technologi to IMHO tylko kwestia czasu...

83.31.17.* napisał:
przecież jak ktoś nieche nie musi kpowac 2 kart. mnie t technologa bardzo zaciekawiła i myśłe że mogli by ją wpowadzać do karzdej karty co jest na rynku, Tylko pamiętajcie o ryzyku jakie to niesie poducenici gier zaczną robic gry coraz ładniejsze i wymagające coraz większej mocy obliczeniowej lub tez zaczną coraz gozej je optymalilizowac bo przecież bedziemy mieć 2 karty któe sa potężne i jakoś sobie poradzą. pozatym do 2 kart trzeba mieć niezły procek by nadażyłza dostarczaniem danych do kart.

81.190.135.* napisał:
nic tylko czekać na nową płyte główną na nforsie z obsługą dwóch PCI-exp x16 i dwóch procyków po 5ghz każdy.

fajnie by było mieć takie coś w domku icon_biggrin3.gif

213.76.212.* napisał:
fajne to, np miec takie chocby 2 GF4 Ti 4200, to lepsze od jednego radka 9800 pro czy xt, w cenie nie wiecej jak 800zł icon_wink2.gif

83.16.22.* napisał:
Cytat z nvision.pl:
CODE
Oczywiście rozwiązanie to jest całkowicie sprzętowe i nie wymaga żadnego wsparcia danej aplikacji. Oznacza to, że przypływ mocy dostaniemy w każdym programie - czy to jest 3DMark03, Doom3, Quake2 czy też 3DStudioMAX, Maya


Także nic nie trzeba pisać od nowa i pod taki konfig kart. icon_wink3.gif

217.225.78.* napisał:


Moga rederowac co druga linie...wtedy sie wszystko rozklada icon_smile3.gif

213.76.212.* napisał:
albo kazda karta poszczegolne efekty, jedna renderuje jakies shadery, a inne filtrowania, cienie i takie tam

80.55.38.* napisał:
Możę to będzie i dobre ale za kilka lat jak kogoś będzie stać zapłacić za dwie VGA bo narazie jakoś nie usmiech mi się wydać 5oooPLN na samą grafikę, skoro 2 procesorowe komputery są tak popularne to dlaczego ja osobiście znam 1 osobę na forum która ma taki komputer ? dlaczego większośc urzytkowników woli jednego bartona m od dwuch ? powiem dlaczego : DUŻO taniej, płyty pod jeden procesor mają lepsze możliwości o/c.

Kombinujecie strasznie podejżewam że nvidia doskonale wie co robić i czy podzieli ekran na 2 częći czy to będzie na zasadzie przeplotu to będzie działać lepiej od metody której nie zastosują, jeśli ktoś uwarza że wie lepiej od nich to nich szybko biegnie opatentować swój pomył i karze NV płacić za wykorzystanie tego w swoich kartach icon_wink2.gif

62.233.169.* napisał:
Sli owszem bylo fajne ale pozostawialo bardzo wiele jesli idzie o jakosc obrazu - w koncu kazda karta trzepala co druga linie co owocowalo nie zawsze pelna synchronizacja obrazu (czasem te linie rozchodzily sie)
SLI to byl dobry pomysl kiedys, dzisiaj lepszym pomyslem byloby wypuszczenie kart z dwoma zlaczami (np 2 x agp) zamiast mozliwosci dokupienia dodatkowej grafy.
Wyobrazcie sobie 2 x gf6800 w jednym kompie - trzeba by chyba 230 z kontaktu podlaczyc do nich icon_smile3.gif

Kiedys zapewne SLI wyszlo troche jako efekt uboczny i wykorzystano to fajnie ,a le nie pamietam by nagle wszyscy hurtem rzucili sie na 2 monstery icon_smile3.gif

83.31.29.* napisał:
ale czemu cały czas móice o 6800 przecież jeżlei to się stanie popólarne to moga to dawać do słąbszych kart. albo jak 6800 stanie się słabszą kartą to sie kupi takie 2 i będzie to lepszeniż np: jakiś nowy 7800

83.31.138.* napisał:
Ja to widze w ten sposob... Kiedy 1 grafa bedzie nam malo, mamy 2x PCI itd. No coz, dokupujemy 2 grafe, to jest piekno tego ukladu...

62.233.169.* napisał:
Raczej watpie. Praktyczniej dla firmy jest wprowadzic nowsza technologie i czerpac z tego zyski niz bawic sie w takie polrozwiazania . Dawniej wprowadzono cos takiego bo nie dalo by rady nic nowszego wprowadzic na tamte czasy ( w koncu jeszcze nawet agp nie bylo) wiec najnizsza linia oporu wykorzystano bajer SLI - w malym nakladem bardzo duzo zyskano, jak znam zycie to SLI doszlo w ostatniej fazie planowania produktu i to w tej czystko softwaerowej jesli chodzi o bios, bo konstrukcji karty i tak nie trzeba bylo zmieniac.
Dzisiaj racze jnei stawial bym na SLI, szybciej wchodza nowinki, AGP to juz przezytek, niedlugo dostanie nastepce tak samo jak ten nastepca swojego nastepce. Ponadto patrzac na osiagi i cene, to taniej wyjdzie wprowadzenie nowego ukladu na rynek niz bawienie sie w dublowanie 2 starych, a zanim ktos dozbiera kapuste na drugiego 6800 to okaze sie ze na horyzoncie jest juz nastepca z nowa porcja nowinek i bedzie kosztowal praktycznie tyle samo co 2x 6800 (akurat daje ta karte dla przykladu, nie wyobrazam sobie potrzeby implementowania SLI w wolniejszych ukladach - marnowanie niepotrzebnie potencjalu jaki plynie z nowszej technologii oraz kasy)

81.168.221.* napisał:
Druga karta sie bedzie przegrzewala - mianowicie zerknijcie na chlodzenie 2 karty - bedzie wciagala gorace powietrze z tylu karty pierwszej, a do tego siedziala w niezlym scisku...

83.16.22.* napisał:
CODE
Drugim sporym problemem poprzedniego rozwiązania SLI była synchronizacja kart. Karty połączone w 3dfxowe SLI renderowały naprzemiennie linie obrazu. Niestety taka współpraca nie była najlepsza, ponieważ spadała i to znacznie jakość obraz (głównie przez analogowe połaczenie oraz różnice pracy układów DAC). NVIDIA korzysta z nieco innej metody. Pojawiła się ona rok po prezentacji 3dfxowego SLI i jej rozwojem zajęła się firma Metabyte. SLI NVIDIA ma tylko taką samą zasadę rozkładu danych pomiędzy GPU. Czyli każdy z GPU może renderować np. po połowie klatki (dzieli się ją poziomo). Napisałem może, ponieważ dzięki w pełni cyfrowym wymianom danych między ramkami oraz [b]zaawansowanym algorytmom rozkładającym równomiernie obciążenie między GPU pozwala na uzyskanie maksymalnej prędkości [/b]przy zerowej stracie jakości obrazu.


Sprzętowe równomierne rozkładanie obciążenia na 2 GPU to świetna sprawa. Karta renderuje tyle ile zdąży przed drugą dzięki temu można prawie maxymalnie wykorzystać GPU. Bardzo dobry pomysł. icon_wink3.gif

194.156.44.* napisał:
pewnie ze super ale pod warunkiem ze takie 2 uklady zintegrowane sa w calosc, a przy czyms takim jak SLI nie ma mowy o pelnej synchronizacji miedzy ukladami, a nawet jak by chciec zrobic pelna synchronizacje to za wiele by to zajelo czasu (na synchronizowanie)

193.151.96.* napisał:
No i 20.000 pękło icon_eek2.gif
user posted image

62.233.169.* napisał:
No i ciekawe ile w tym sciemy, bo jesli tak jak ostatnio to ja bardzo podziekuje za takie wyniki.
3dmark tak naprawde dobrze wiemy ze nie jest miarodajny bo brakuje w nim bardzo wielu detali ktore maja kolosalny wplyw na predkosc. No ale zaden test nie jest w 100% miarodajny, tak czy siak nei ma sie co podniecac punktami w 3dmarku, ja wole przelozenie na jakoes konkretne gry

213.76.212.* napisał:
no ale widac porownanie co do innych graf, jak na takim radku 9800 jest ok 6000pkt, tzn ze okolo 3 razy szybszy jest podwojny GF 6800GT

62.233.169.* napisał:
lol, rozbawiles mnie icon_smile3.gificon_smile3.gificon_smile3.gif
To wcale nie znaczy ze jest 3 razy szybszy, tylko zwroc tez uwage jakie kongo wyszlo z oszustwami na 3dmarku i nie mowie tu tylko o 6800 ale o wczesniejszych zabiegach nvidii w poprzednich markach icon_smile3.gif dla mnie 3dmark przestal byc miarodajny po pierwszej aferze z oszukiwaniem na punktach icon_smile3.gif

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 8.93 | SQL: 1 | Uptime: 513 days, 13:37 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl