heh.pl
Kanał informacyjny Heh.pl


Piątek 3 maja 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

Jakość Obrazu W Gf


195.140.236.* napisał:
Nie wiem czy był już poruszany ten temat, ale zdecydowałem się go napisać bo go nie znalazłem. Posiadam 17 calowego LCD-ka, ustawionego na standardowe ustawienia. Kilka miesięcy temu miałem nowiutkiego Sparkle GF 5700 LE i jakość obrazu, w szczególności ostrość czcionek wyświetlanych w notatniku czy na stronach www była rewelacyjna. Zmieniłem kartę na GigaByta GF 6600GT i odrazu zauważyłem, że jakość obrazu jest gorsza. Mam najnowsze stery - stare czy nowe jest tak samo. Chodzi o ostrość obrazu szczególnie w czcionkach, ich brzegi są bardziej przymazane. Na początku myślałem, że chodzi o ustawienia w windzie i w LCD-ku jednak są identyczne jak przy pierwszej karcie 5700LE.

Jeśli ktoś ma CRT-ka to nie odczuje różnicy bo te monitory już standardowo są nie ostre. Natomiast, jeśli ktoś ma tak jak ja LCD-ka dodatkowo podłączonego przez cyfrowe DVI to jest to już bardzo widoczne gdyż jakość w tym ostrość obrazu jest powalająca (wszystko jest jak żywe). Było by tak nadal gdyby nie te przymazywanie przez 6600GT.

Co wy na to???


82.210.185.* napisał:
Może to anizotroping nie ustawiony ? no bo ramdac na 100% powinien ci zapewnić maxymalną ostrość ( prędzej 7800GT stanieje niż większy ramdac będzie potrzebny )

83.17.13.* napisał:
Sprawć tę karte na innym kompie.
Jak obiawy te same to oddaj do serwisu...

83.142.12.* napisał:
A ja na to powiem tak.
Wypisales dwie bzdury.
Jedna w temacie, a drugiej sie doszukaj.
Kup se radka to nie bedziesz narzekal bo one maja najlepszy obraz wszedzie.
W 2d, 3d, 4d i 5d.

81.190.158.* napisał:

e-e , matrox, matrox!!
ja na swoim winfascie, i poprzednim gigabycie nie mialem zadnych problemow z jakoscia obrazu

213.184.16.* napisał:
Podłączając przez DVI na każdej karcie powinien być dokładnie ten sam obraz i jakość obrazu wówczas zależy tylko od monitora.

83.26.185.* napisał:
To ja jeszcze zapodam jedną rzecz, którą zauważyłem po
przesiadce...
Miałem r9550, teraz mam Leadteka GF6600 i stwierdzam że
drastycznie spadła mi jakość obrazu podczas odtwarzania
plików avi icon_sad2.gif
Na kartach ati obraz miałem ostrzejszy, bardziej nasycony -
teraz na nVidii mam mdłe mydło icon_biggrin3.gif i nijak nie moge ustawić
tak jak było na ati...

213.184.16.* napisał:

Rzeczywiście, jest dokładnie, jak napisałeś.

81.190.158.* napisał:
a stery PURE VIDEO oczywiscie zainstalowane?

62.252.0.* napisał:
Najbardziej się usmiałem ze stwierdzenia że monitory CRT są nie ostre. Niezłe bzdury.

83.26.147.* napisał:

Nie no... mam instalowac jeszcze jakieś dodatki?
O ile pamiętam nVidia za Pure Video chce dodatkowej
kasy, normalnie te stery chodzą 30 dni?
(to pogorszenie jakości to celowe działanie nVidii?)

Eee... coś mi się zdaje, że wrócę do kart ATI - od
samego początku miałem karty ati (rage 3D, rage128,
r7000, r7500, r9000, r95509600) i nie miałem takich
problemów ze zwykłym obrazem 2D (avi) blink.gif
Chyba zacznę się rozglądać za jakim x700... huh.gif

62.233.148.* napisał:
W sumie to nie wiem czy mam stery z pure video ale cos mi sie wydaje ze nie i obraz jest zylasty icon_neutral2.gif Poprzednia karta radek9800 nie generowala tak dobrego obrazu ale nie wiem moze to pisze bo moje oczy mnie oklamuja icon_lol.gif

EDIT
a moze w nastepnej generacji kart (seria 7) naprawiono wszystkie wpadki serii 6 icon_confused2.gif

213.184.16.* napisał:
Zainstalowałem te purevideo, ale dużej poprawy nie zauważyłem, to znaczy na ati i tak było lepiej. Chodzi mi tylko o odtwarzanie filmów avi wyświetlanych na monitorze, bo poza tym obraz jest ok.

Jeszcze w dodatku sterowniki te są płatne, kpina.

83.16.35.* napisał:

Mamy Cie przekonywac zebys jednak zostal przy NV ?
Im mniej uzytkownikow tej firmy tym mniejsze ceny zabiegajace o klienta.
Obrazony bo nie umie korzystac z karty albo masz lipny LCD za tysiaka.
Mialem Ti4200 winfasta, mialem R9500Pro Herculesa i mam GF6200 winfasta i niech mi ktos powie, ze jest roznica w 2d to mu posle wpierd**** mailem.

83.26.147.* napisał:

Mam dokładnie taki sam monitor jak przy pracy z radkiem.
Opisałem moje odczucie, póżniej robiłem jeszcze dodatkowe
testy dla spokoju sumienia. Po testach odczucie przeszło
w pewność. Moja karta wyświetla pliki avi ze znacznie
gorszą jakością niż poprzedni r9550. Jeśli nVidia celowo
puszcza takie sterowniki aby wymusić zakup pakietu Pure Video
to... sorry, chyba nie tędy droga...
Być może to wina karty, nie sprawdzałem innego egzemplarza,
na razie nie mam możliwości. W tym wątku jeszcze jedna osoba
wypowiada się, że pliki avi są odtwarzane ze słabszą jakością
przez GF6600. Do ogólnej jakości wyświetlanej grafiki 2D
i 3D nie mam zastrzerzeń - problem stanowią TYLKO odtwarzane
pliki avi. Nie jest to również wina zainstalowanych kodeków.
Mam zrobionego ghosta czystego systemu - jakość jest taka
sama zarówno przy stosowaniu ffdshow jak i standardowych kodeków
divx i xvid. Szukam rozwiązania i skończyły mi się pomysły - stąd
moja wypowiedź.

195.140.236.* napisał:
Ba... no między ostrością i w ogóle jakością obrazu CRT a LCD jest gigantyczna różnica. Nic nie dorówna LCD podpiętych jeszcze przez DVI. Nawet jak ktoś wsadzi GF 7800GTX i odpali na najlepszym CRT-ku to będzie daleko z tyłu do LCD-ka z karą 6600 czy 6600GT. Ludzie są przyzwyczajeni do swoich jakości obrazu i nie mają pojęcia jaki może być jeszcze lepszy obraz. Wiem coś o tym bo jak pójdę do kumpla który ma CRT-ka (i nie jest to jakiś badziew) to mnie oczy i głowa bolą po godzinie patrzenia. Później ludzie się dziwią dlaczego ich głowa boli od kompa... odpowiedź do bani obraz. Ja u siebie mogę przez 10 godzin patrzeć w monitor i nic.... żadnych reperkusji wzrokowych.

217.96.23.* napisał:
a jak z Nasyceniem i jakoscia Kolorow na tym twoim LCD ? icon_wink.gif

83.31.169.* napisał:
Zdaje sie, ze Nvidia w nowszych sterach namieszala cos z ustawieniami gamma przy odtwarzaniu filmow - stad wyprane kolory.

Podobno gdzies po sieci snuja sie nieoficjalne latki, ale ja nie znalazlem...

83.30.12.* napisał:
Puentując - Całe życie z wariatami icon_razz.gif.

212.182.122.* napisał:



Jest drobny błąd w sterach, ale wystarczy po uruchomieniu filmu wejsc do ustawien sterów i juz powinno byc dobrze(obraz zmienia się automatycznie po załadowaniu zakladki nvidii), czasem się zdarza że nie jest i trzeba recznie ustawic. I potem dziala dobrze do kolejnego restartu...

195.140.236.* napisał:
W LCD jakość kolorów jest rewelacyjna, CRT się chowa. Grałem w NFS U2 na CRT-ku i na LCD-ku i na tym drugim wrażenia z jakości obrazu były takie jakby się to działo na żywo, wyglądało to tak realnie. Perfekcyjna czystość obrazu, kolory i ostrość. MMMM cud. Oczywiście przy optymalnej rozdzielczośći dla LCD 1280x1024.

83.142.12.* napisał:
LCC, jestes ignorantem czy zaprzeczasz wszelkim teoriom ?
Jedyne co ma lepsze LCD od CRT to wage, rozmiary oraz ze nie wysyla takiej ilosci szkodliwych promieni dla oczu.
Kolory, nasycenie, ostrosc, wygaszanie (czas reakcji - liczy sie czas wygaszania, zapalanie mozna olac), ustawienia rozdz., odswierzanie i cene. Te wszystkie parametry LCD ma po prostu GORSZE i narazie z fizycznego pkt widzenia nie do obejscia.
Dotarlo ?
Znajdz mi jakiegos profesjonalnego grafika ktory pracuje na najlepszym nawet na swiecie LCD icon_biggrin3.gif

83.26.147.* napisał:

Wyprane kolory to raz, nieostry obraz to dwa.
Przejaskrawiając* to wygląda tak jakby był nakładany
blur jaki na obraz w celu maskowania niedoskonałości
odtwarzanego pliku dry.gif

* oczywiście podczas oglądania rozpoznaję twarze aktorów icon_smile3.gif
chodzi raczej o to że obraz jest jakby mniej szczegółowy w porównaniu
do tego samego obrazu odtwarzanego na karcie ati.
(jeszcze raz zaznaczam że chodzi TYLKO o takie zachowanie podczas
odtwarzania plików avi - jakość 2D i 3D podczas pracy karty jest bez
zastrzeżeń)

83.142.12.* napisał:
O czym Wy do ciezkiej cholery mowicie ??
Ogladam przeciez filmy na nowej grafie i nie ma zadnej roznicy miedzy R9500Pro a tym GF.
Przestancie opowiadac bzdury, ktore pochodza chyba z samosugestii.

83.25.10.* napisał:
Ja też nie zauwazyłem różnicy pomiedzy R9600 pro Herculesa ,9800 Pro saphire czy obecnym 6800le Asusa jakość we wszystkich plikach video jest TAKA SAMA !!

195.140.236.* napisał:
Do Kaeresa, mów co chcesz ja widzę gigantyczną różnicę mędzy CRT a LCD, oczywiście na korzyść LCD. A na jakości obrazu się znam nie od dziś.

83.26.147.* napisał:


Skoro u Ciebie jest dobrze, to możliwe że u mnie karta niedomaga.
Nie napisałem, że objawy takie występują we wszystkich kartach GF6xxx,
nie mam możliwości sprawdzenia.
Powiem może jak to wyglądało z tą "samosugestią" u mnie...

Mam serial kilkunasto odcinkowy do oglądania, mniej więcej
w połowie odcinków zmieniłem kartę. Podczas pracy z windows,
giercowania itd. byłem bardzo zadowolony z wymiany (jakbyniebyło
GF6600 jest wydajniejszy od r9600 rolleyes.gif ).
Moje zadowolenie trwało do momentu zapuszczenia kolejnego odcinka
oglądanego serialu. Po włączeniu od razu widziałem że obraz jest inaczej
wyświetlany. Myślałem że to ten odcinek tak ma, niestety wcześniejsze
też wyglądały podobnie.
Najpierw zacząłem kręcić ustawieniami w panelu, potem w monitorze.
Potem szukałem czegokolwiek do korekty obrazu w kodekach.
Na końcu doszło przywracanie ghostem czystego systemu i eksperymenty
z innymi kodekami, ponowna instalacja radka i zdziwienie po uruchomieniu
playera z filmem, że na radku obraz jest lepszy.
Tak właśnie wygląda ta moja "samosugestia"... Skoro u Ciebie jest OK,
nie znaczy to że nikt inny nie mam prawa mieć problemów.

Przyczyn szukam dalej, jak coś znajde, opiszę - może jeszcze komuś
się to przyda.



83.16.35.* napisał:
To poprobuj bo naprawde musisz miec cos zle ustawione/zainstalowane or smth.

83.31.151.* napisał:



Kaeres, od kiedy to LCD maja gorsza ostrosc od CRT? huh.gif Moze geometrie tez, co?

I co ma odswiezanie do rzeczy? Powiedzialbym, ze brak odswiezania w typowo rozumianym sensie (jako rysowanie obrazu na ekranie) jest wielka zaleta LCD, bo nie ma meczacego oczy migotania.

Czas wygaszania + zapalania - CRT tez pod tym wzgledem idealem nie sa. A na najnowszych LCD (juz od ekranow 16ms) ten efekt nie jest widoczny...

Kolory - zgodze sie co do czerni. Reszta kolorow moim zdaniem niczym CRT nie ustepuje.

83.16.35.* napisał:


Czas reakcji w CRT rowna sie 0 (zero). Co jest idealniejsze od tego stanu rzeczy ?
16ms to nadal jakis czas i mozna zauwazyc.
W codziennej pracy moze i nie jest tak wielka roznica w odwzorowaniu kolorow ale niech taki LCC nie pisze mi bzdur, ze to w LCD sa lepsze nasycenia i odwzorowanie kolorkow.
Co do ostrosci to troszke przesadzilem. Ale CRT po prostu sa rowniez idealne pod tym wzgledem i nie widze roznicy.

84.40.134.* napisał:
oj, Kaeres lekko przesadziłeś. Powiedz mi w jaki sposób czas reakcji może się równać 0?

62.29.133.* napisał:
Mialem okazje pracowac jakis czas na LCD i niezmiernie denerwowala mnie ostrosc obrazu - nie widze nic fajnego w poszarpanych krawedziach czcionek. Aliasing w aplikacjech 3D tez dawal bardziej po oczach, nie wspominajac o smuzeniu (moze przy wartosciach rzedu 4ms juz tego tak nie widac). A juz zupelnie z innej beczki - nie lubie byc zmuszany do pracy z jedna natywna rozdzielczoscia monitora. Niewatpliwa zaleta takich paneli jest geometria obrazu i gabaryty, ale dla mnie to za malo zeby placic dwu-trzykrotnosc ceny dobrego CRT.

Co do samego tematu - po zmianie karty z GF2MX na GF6600 nie zaobserwowalem u siebie pogorszenia jakosci obrazu, a zarowno z grafika 2D jak i edycja video mam do czynienia niemal na co dzien.

83.31.151.* napisał:
Niestety Kaeres, ale CRT tez maja czas reakcji - luminofor nie gasnie natychmiast, ale swieci sie jeszcze przez chwilke. Do tego dochodzi jeszcze fakt, ze wiazka elektronow ma wieksza srednice niz otwory maskownicy i rysujac obraz oswietla kazdy punkt troche dluzej niz powinna.

Efekt ten jest oczywiscie rzadko widoczny, ale jest (taka sama sytuacja jak z dobrymi LCD - zachodzi zbyt szybko, zeby oko to zarejestrowalo). W dodatku wlasnie w CRT nic sie z tym juz zrobic nie da...

213.184.16.* napisał:
Wróciłem do sterowników 77.72 (miałem je na płytce dołączonej do karty) i obraz nie jest już zamazany, czyli najnowsze nie znaczy najlepsze. Na 78.01 obraz rozmazany, 81.84 beta mało wydajne, a starsze 77.72 wydajne w grach i prawidłowy obraz w filmach.
Z mojej strony sprawa rozwiązana.

83.230.18.* napisał:

Największa, niezaprzeczalna wada LCD'ków to JEDNA rozdzielczość nadająca sie do wykorzystania...

83.26.171.* napisał:

Zobaczę dziś jak się zachowa u mnie wersja 77.72.
Ostatnio sprawdziłem nowe, oficjalne 81.85.
Z ciekawostek pojawiło się (nie do końca działające) sterowanie
parametrami monitora (jasność, kontrast, RGB)
z poziomu programowego (tzn. klikamy myszą a sterujemy
panelem monitora).
Na tej wersji po uruchomieniu jakiejkolwiek gry 3D
u mnie zwiecha prędzej czy później icon_sad2.gif
Jadę na 77.77 - te u mnie chodzą najstabilniej - jeszcze nie
zdarzyło się aby się powiesiły na moim zestawie gier.

Tak troche poza tematem... w sterach nVidii jest coś takiego
jak w Catalystach: VPU recovery? Wolałbym aby gry jeśli już,
to wychodziły mi do windy a nie czekały ze zmrożonym ekranem
aż wcisnę reset na obudowie... huh.gif

85.128.125.* napisał:
roofman, faktycznie Twoja karta (lub prędzej- cała seria, co fatalnie świadczy o producencie i nV) niedomaga. Aż tyle i tylko tyle. U mnie na 6800go obraz w 2d/3d jest identyczny (czyt. wzorowy) co na x800. Jedyne co Ci można doradzić to zabawa sterami co niestety u nV zdaje się być nagminne.

A co lcd i opinii jednego użytkownika. Ta sama osoba twierdzi, że nie ma róznicy między bartonem a a64 (nic się w cpu od czasów bartona nie zmieniło, jego słowa), że prawdopodobieństwo awarii codegena 300W jest identyczne ze zgonem firmowego PSU, a w tym temacie- że crt z 0 czasem reakcji (tjaa) jest lepszy od tych "modnych" (bo lekkie i cieńkie) lcd. Słowem, wszystko na co go nie stać, jest niepotrzebne i do bani. Ot, taki sposób na poprawę samopoczucia, nie ma co się tym/nim przejmować.

PS. KRS, ja zajmuję się grafiką (DTP) i nie ma ani jednej bańki w dziale marketingu... same 20'' lcd. Znów pudło.

83.16.35.* napisał:
Jasno wynika, ze masz jakies kompleksy na moim pkt.
Wyszukujesz moje wypowiedzi sledzac moj profil aby tylko probowac mnie osmieszyc lub zmniejszyc moja wiarygodnosc.
Moze kiedys cos z Twoja dziewczyna zrobilem czy jak ?

PS. Mowilem o profesjonalnych grafikach.

85.128.125.* napisał:
Nie, nie mam kompleksów. Najzwyczajniej nie toleruję wprowadzania w błąd innych, pisania niesprawdzonych info. autoratywnym tonem (ceny x1x00, przyznałeś się chociaż do błedu?) i pozowania na guru bez oparcia na wiedzy (gł. praktycznej). Wprowadzasz ludzi w błąd (np. w tym temacie i stąd moja reakcja- naskakujesz na roofman'a tylko dlatego, że ośmielił się skrytykować nv. Ma problem, to oczekuje porady a nie słuchania peanów o twojej vga za kg ziemniaków), a jak ktoś zwróci ci uwagę, to zaczynasz niskolotne wycieczki osobiste. Chyba jednak ty masz jakieś kompleksy.

PS. Takich jak ty? Dla mnie DTP to jest profesjonalna grafika. eot, nie ma co dalej robić o/t.

83.31.153.* napisał:


Prawda... chociaz tez nie do konca.

Nie wiem na czym to polega, ale w grach w nizszych rozdzialkach nie obserwuje problemow z ostroscia na elementach 3D (czyli obraz w gierce jest spoko, ale np. tekst w menu troche rozmyty), a przynajmniej nie sa one wyraznie widoczne - moze jakbym sie bardzo wpatrywal to bym cos znalazl. Ostatnio grywam w Diablo w powalajacym 640x480 i z obrazu jestem bardzo zadowolony (a nie jest to gra z przyspieszaniem sprzetowym). Moze ten brak ostrosci dziala jak antyaliasing, niwelujac pikseloze icon_lol.gif


Gdzies kiedys uslyszalem teorie, ze DVI bardzo pozytywnie wplywa na jakosc obrazu w nizszych rozdzialkach. Nie chcialo mi sie jednak nigdy przekladac kabli, zeby to sprawdzic (korzystam z DVI) icon_smile3.gif

195.140.236.* napisał:
A jednak, coś nie tak z Nvidia !

(z NewsRoomu serwisu CHIP Online)

Nvidia o testach swoich kart graficznych
Nvidia postanowiła odpowiedzieć na potwierdzone przez The Inquirer zarzuty ATI, która stwierdziła, że procesory GeForce nie spełniają założeń specyfikacji Shader Model 3.0.
Przedstawiciele firmy podkreślają, że jej produkty przechodzą z powodzeniem testy Microsoftu, sprawdzające zgodność sprzętu z oprogramowaniem z Redmond. Sprzęt Nvidii, jak ocenił Microsoft, przechodzi WHQL i w pełni obsługuje wszystkie założenia SM3. Inny sprzęt również przechodzi testy WHQL dla SM3, chociaż niekoniecznie wykorzystuje wszystkie funkcje specyfikacji Shader Model 3.0 - czytamy w oświadczeniu.

Zauważono, że gdy producent sprzętu nie zaimplementuje jakiejś wymaganej funkcji, Microsoft nie przyzna sprzętowi czy sterownikom certyfikatu. Nvidia stwierdza również, że fakt, iż sprzęt lub sterowniki nie przechodzą pomyślnie testu WHQL DCT (Windows Hardware Compatibility Tests - Display Compatibility Test), niekoniecznie musi oznaczać błąd ich producenta. Przyczyną może być źle przeprowadzony test czy też niezgodność z microsoftowym wzorcem renderowanego przez kartę obrazu. Testowany sprzęt może dawać obraz innej jakości, niż założyli programiści Microsoftu.

83.142.12.* napisał:
WHQL jest do 3dmarkow icon_biggrin3.gif
Wazne aby sterowniki byly jak najwydajniejsze a zarazem dawaly jak najladniejsza grafike.
A to czy przechodza testy M$ lub czy wogole sa im poddawane to juz nas uzytkownikow delikatnie mowiac WALI.

213.199.235.* napisał:
Lol siedziałem na paru crt (nie za 500 czy 1000zł) i widać duzą różnice w głębi kolorów w porownaniu do lcd (tez nie za 1000zł)

83.26.181.* napisał:
Wiecie co... poległem. Poddaje się. Wszelkie kombinacje łącznie
ze sterownikami ze strony Leadteka zawiodły.
Wyciągnąłem z półki zakurzoną kartę r9200 i z ulgą zobaczyłem
DOBRY obraz w odtwarzanym filmie.

Nie wiem co to jest, może jakaś częściowa niekompatybilność
z moją płyta główną (nie chce mi się w to wierzyć), może ten
egzemplarz ma coś nie tak... może filtry są słabej jakości
(ale wtedy podczas zwykłej pracy z windą bym zauważył).
Będę miał jakąś okazję to sprawdzę tę kartę w innym kompie.
Generalnie mam jej dość i sprzedaję - może innym nie będzie
aż tak przeszkadzało to delikatne mydlenie podczas oglądania
filmów.

83.31.196.* napisał:
ludzie ja to widze tak:
Ci co mają LCD'ki bronią ich zacielke, a ci co mają CRT'ków bronie swoję monitorki.
Co do ostrości to polecam stare karty 2-4mb (najlepiej jakiś matrox lub S3). Widziałem porównanie między taką starą kartą a gf2mx400 i radkiem 9550. Stary S3 miał o wiele ostrzejszy obraz icon_wink2.gif Jeśli dobrze pamiętam jest to spowodowane jakimiś układami, które chronią grafike i inne części w pobliżu przed namagnezowaniem. Te starsze grafiki ich nie mają a w tych nowszych czytałem że można je wylutować chociarz tego nie próbowałem icon_razz.gif

P.S. To tylko moje słuchy które słyszaaaałem baaardzo dawno temu więc mnie bluzgajcie mnie. Myślę jednak że tak jest jak powyżej napisałem

83.31.158.* napisał:
Karty Matroxa zawsze byly slynne z jakosci obrazu (oraz z obslugi wielu monitorow).

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 2.23 | SQL: 1 | Uptime: 11 days, 12:21 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl