heh.pl
Kanał informacyjny Heh.pl


Sobota 21 grudnia 2024 r.

artykuły | abc komputera (archiwum) | forum dyskusyjne | redakcja


Temat

Nvidia G80 I Ati R600


83.30.88.* napisał:
Ostatnio trochę pogrzebałem w necie, szczególnie CRYSIS mnie urzekł sowimi błyskotkami a do tego jest potrzebny komp a na pewno nasze karty które teraz mamy sobie z tym rady na maxa nie dają więc poszukałem i zatrzymałem się na NVIDIA G80 i ATI R600 słyszał ktoś coś na ich temat?

CYTAT(Frazpc.pl)
Jeszcze większość z nas nie zdążyła dobrze zapoznać się z kartami GeForce 7 i Radeonami z serii X1x00 a już zaczyna się mówić o ich następcach. Pierwsza ma zaatakować NVIDIA, pokaz nowej karty ma nastąpić na targach Computex. Przygotowywany w pocie czoła G80 ma być wykonany w procesie technologicznym 80nm, co ma zaowocować zmniejszeniem rozmiaru rdzenia o 19% w stosunku do G70. Bardzo prawdopodobne jest również to, że G80 będzie zgodny z Shader Model 4.0. Do towarzystwa nowemu dziecku NVIDIA zaprzęgnięto pamięci Samsunga GDDR4, które cechują się przepustowością na poziomie 2.5Gbps. Jeśli chodzi natomiast o ATI, to powołując się na firmowy roadmap można domniemywać, że R600 będzie wykonany w procesie technologicznym 65nm. Premiera kart na nim opartych ma nastąpić pod koniec tego roku.

Cytat: z frazpc.pl http://www.frazpc.pl/komentarze/news/15916-NVIDIA_G80_&_ATi_R600_Info

CYTAT(VR-Zone)

* 65nm
* 64 Shader pipelines (Vec4+Scalar)
* 32 TMU's
* 32 ROPs
* 128 Shader Operations per Cycle
* 800MHz Core
* 102.4 billion shader ops/sec
* 512GFLOPs for the shaders
* 2 Billion triangles/sec
* 25.6 Gpixels/Gtexels/sec
* 256-bit 512MB 1.8GHz GDDR4 Memory
* 57.6 GB/sec Bandwidth (at 1.8GHz)
* WGF2.0 Unified Shader

Cytat: z vr-zone.com http://www.vr-zone.com/?i=3177

62.87.178.* napisał:
i po co odswierzasz temat ...
jak zwykle tylko bajki

83.30.106.* napisał:

i po co odswierzasz temat ...
jak zwykle tylko bajki


Jakie bajki blink.gif Przecież to następcy GeForce 7900 i Radeona X1900XTX. Może niektóre wartości się zmienią ale raczej nie dużo przecież coś musi udźwignąć CRYSIS.


80.55.116.* napisał:
Boże.... nie dawno wyszła NV 7900 i Radeon X1900XTX a nvidia i ati robią juz ich następców, i poco to, mogli by troche poczekać asz ich ,,nowe wynalazki,, zyskają większa popularność ale w sumie to dobrze bo może spadną ceny Radeona X1900XTX i NV7900 icon_biggrin3.gif

82.160.203.* napisał:
Przez te zapowiedzi mam dylemat co do zmiany grafy, bo jak karty na bazie G80 ukażą się przed końcem tego roku to czy jest sens kupna teraz 7900 GTX. Co o tym myślicie?

194.9.67.* napisał:
Bardziej mnie zastanawia po co robic wynalazki ktore za pol roku beda nie aktualne i nie chodzi o wydajnosc tylko technologie i obsloge narzedzi. NIc wielkiego sie nie zmienialo jak wchodzily nowe windowsy a Vista niesie ze soba jedna duuuza zmiane... Brak kompatybilnosci z DrX w dol co bedzie porazka jak dla mnie.

83.23.82.* napisał:

Brak kompatybilnosci z DrX w dol co bedzie porazka jak dla mnie.

caly sytem graficzny opiera sie na dx9 wiec jak moze to byc niekompatybilne? zreszta odpalilem 3dmarka i wynik byl o jakies 10% nizszy, biorac pod uwage ze caly system i stery to beta to imho bardzo dobry wynik.

83.30.80.* napisał:
Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki icon_biggrin3.gif. A doczytałem jeszcze gdzieś że podobno G80 ma być też dwurdzeniowy GPU icon_biggrin3.gif

212.2.100.* napisał:

Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki icon_biggrin3.gif. A doczytałem jeszcze gdzieś że podobno G80 ma być też dwurdzeniowy GPU icon_biggrin3.gif

No tak ale 7800gt też są modele dwurdzeniowe.

194.9.67.* napisał:

No tak ale 7800gt też są modele dwurdzeniowe.

Ciekawe gdzie znalazles dwurdzeniowe 7800GT?? Owszem Asus zaprezentowal plytke ale nie drurdzeniowa tylko posiadajaca dwa osobne procesory... To nie to samo i wiaze sie z wieloma trudnosciami jak podwojna emisja ciepla itd a rozwiazanie dwurdzeniowe nie powoduje podwojnego przegrzewania sie...

212.2.100.* napisał:

Ciekawe gdzie znalazles dwurdzeniowe 7800GT?? Owszem Asus zaprezentowal plytke ale nie drurdzeniowa tylko posiadajaca dwa osobne procesory... To nie to samo i wiaze sie z wieloma trudnosciami jak podwojna emisja ciepla itd a rozwiazanie dwurdzeniowe nie powoduje podwojnego przegrzewania sie...

Rozumiem. Ale jak by nie było ten asus jest dwurdzeniowy . A czy tego dwurdzeniowego G80 bedzie mozna połączyć w SLI?

83.29.13.* napisał:
CYTAT
Ja bym się narazie wstrzymał z kupnem karty i poczekał na te potworki icon_biggrin3.gif . A doczytałem jeszcze gdzieś że podobno G80 ma być też dwurdzeniowy GPU icon_biggrin3.gif


Poczekasz i co? Znowu wyjda zapowiedzi (dajmy na to) G90 i znowu ten sam dylemat icon_confused2.gif




193.238.180.* napisał:
Zawsze możecie wymieniać kartę co pół roku i po problemie. icon_wink3.gif

83.29.13.* napisał:
Co racja to racja icon_wink3.gif

Ewentualnie poczekac i kupic 2x2 rdzenie, albo 4x2 rdzenie i juz nie bedzie quadro tylko oktawro icon_razz3.gif
Jak zle pisze to poprawic...

83.24.52.* napisał:

Co racja to racja icon_wink3.gif

Ewentualnie poczekac i kupic 2x2 rdzenie, albo 4x2 rdzenie i juz nie bedzie quadro tylko oktawro icon_razz3.gif
Jak zle pisze to poprawic...

Myślę, że to by było raczej octo icon_wink2.gif

83.30.78.* napisał:
Ja się wstrzymałem nic się nie stanie jak kupie karte później, która już pociągnie CRYSIS, i będzie obsługiwać SM 4.0 i DX 10 bo te seria 7 i 6 to samo prawie co FX tylko o wiele szybsze i pod względem konstrukcji lepsze. Bo między SM 2 i SM 3 nie widzę dużej różnicy icon_biggrin3.gif

80.48.127.* napisał:
te parametry g80 są zmyślone , ponieważ nvidia nie zamierza narazie wprowadzać zunifikowanych shaderów

83.23.84.* napisał:

te parametry g80 są zmyślone , ponieważ nvidia nie zamierza narazie wprowadzać zunifikowanych shaderów

ta "specyfikacja" dotyczy r600, a nie g80

83.21.42.* napisał:

Boże.... nie dawno wyszła NV 7900 i Radeon X1900XTX a nvidia i ati robią juz ich następców, i poco to, mogli by troche poczekać asz ich ,,nowe wynalazki,, zyskają większa popularność ale w sumie to dobrze bo może spadną ceny Radeona X1900XTX i NV7900 icon_biggrin3.gif



A kart graficznych więcej niż porządnych gier z super grafiką mur.gif icon_mad.gif

83.10.19.* napisał:
Ja się wstrzymałem nic się nie stanie jak kupie karte później, która już pociągnie CRYSIS.... icon_biggrin3.gif


A niby na jakiej podstawie uważasz, że x1900/7900 nie pociągną CRYSIS? Chyba cyferki Cię nieco zaślepiły....
Po drugie Crysis jest na razie eksperymentalnym silnikiem i sama gra to na razie odległa przyszłaość. Do tego czasu równie dobrze może być tak, ze zostanie solidnie zoptymalizowany dla szerszego grona kart, jaki i tak,że wymagania wzrosną jeszce dalej i nawet High-end'owe karty będą "padały" pod tym tytułem. Na razie to czyste ploty i mydlenie oczu.

A tak na marginesie - jak byś zobaczył w działaniu choćby x1900 obawiam się, ze zmieniłbyś swoje podejście co do wydajnosci najwyższych modeli od Ati i NV...


194.116.249.* napisał:

A kart graficznych więcej niż porządnych gier z super grafiką mur.gif icon_mad.gif


I tu sie z Toba zgodze.... malo ciekawych rzeczy wychodzi... wiec p oco komu te karty? do kolejnych rekordow 3Dmarka chyba... :/

62.233.148.* napisał:
Kolejny temat z [gluteus maximus] mur.gif Historia sie powtarza i autor nie bardzo wie co ma napisac icon_biggrin3.gif pozdro

193.238.180.* napisał:
Był tu niedawno gościu z avatarem dody i gadał takie farmazony że aż głowa bolała. Pozdrawiam.

62.233.148.* napisał:
Tamten gosciu byl rewelacyjny icon_biggrin3.gif Z tego co pamietam byl to maniak geforce fx mur.gif Chyba go wzieli na terapie ,bo juz dawno nie raczyl nas swoimi madrymi postami laugh.gif pozdro

83.238.70.* napisał:
Echh moim zdaniem to powinni troche przystopować producenci gpu.Dopiero co kupiłem x1600pro golden a tu już shadery 4.0 w drodze.Najbardziej mnie dziwi że robią nowe generacje kart tymczasem potencjał starych kart nie został wykorzystany w 100%.Trzeba brać przykład z konsoli.Tam wyciskają do samego końca wszystko co sie da z gpu i tym sposobem GT4 wygląda przepięknie chociaż gpu jest dużo słabsze niż w pecetach sprzed dwóch lat.To samo tyczy sie dooma na xboksie.Owszem został okrojony ale śmiga lepiej niż na kompach mimo tego że ma mało ramu;/.Chyba najwyższa pora żeby producenci zrozumieli że to oni się powinni do nas przystosować a nie my do nich.Echh szkoda że nie wrócą czasy 3dfx'a kiedy to karta starczyła spokojnie na 2 lata grania na full detalach icon_sad3.gif

193.238.180.* napisał:
Mi jeszcze pasuje wydajność X800XT W 1280 na 960 z max detalami. Natomiast jak wyjdzie UT2007 to będzie slideshow. Producenci robią tak by nowa karta starczyła tylko na rok (głównym powodem jest wyścig marketingowy). Pozdrawiam.

80.48.127.* napisał:
spokojnie ci pociągnie ut2007 , gdzieś nie dawno się wypowiadali że będzie dało się grać na karcie pokroju 6800gt/ultra na rozdziałce 1024*768

83.21.42.* napisał:

Mi jeszcze pasuje wydajność X800XT W 1280 na 960 z max detalami. Natomiast jak wyjdzie UT2007 to będzie slideshow. Producenci robią tak by nowa karta starczyła tylko na rok (głównym powodem jest wyścig marketingowy). Pozdrawiam.


Dokładnie. A po co nam PS 4.0 i inne technologie? No bo za technologie sie płaci... a raczej to my za te technologie zapłacimy icon_wink3.gif
Oni robią szybciej te karty niż sie robi gry.


OT a widział ty Black'a na PS2 gra po prostu sam miód.

83.30.113.* napisał:
Panowie ja się tu nie gubię icon_smile3.gif po prostu pisze to co znalazłem na net. Ja tutaj nie zaprzeczam żę CRYSIS nie pójdzie na Radeonie X1900XTX tylko na pewno nie będzie tych wszystkich wodotrysków z SM 4.0 i DX 10.

83.23.84.* napisał:

Ja tutaj nie zaprzeczam żę CRYSIS nie pójdzie na Radeonie X1900XTX

nie zaprzeczas, czyli zgadzasz sie, ze nie pojdzie icon_wink2.gif

CYTAT
tylko na pewno nie będzie tych wszystkich wodotrysków z SM 4.0 i DX 10.

spokojna Twoja rozczochrana, mamy jeszcze kaaaawal czasu do tych "zmartwien" icon_smile3.gif jakos nikomu z obozu czerwonych szczegolnie nie przeszkadzal brak SM3.0 przez 18miesiecy, tak wiec luzik i spokoj, na SM4.0 przyjdzie czas icon_biggrin3.gif

85.222.11.* napisał:
To klient powinien decydować i może decydować jaką grafę kupi. Niestety marketing i próżność robią swoje. Tak się biznes kręci niestety na osobach nie dokońca mających odpowiednią wiedzę. Gdy ludzie trochę pomyśleli i nie gonili za każdą nowością to Wielkie koncerny od GPU wtopiły by trochę kasy w nowe technologie. Jak by im nie schodziły chipy GPU z magazynów to albo zmniejszyli by cenę albo przeanalizowali by rynek i trochę rzadziej robili by premiery. Jednak magia cyferek 3DM robi swoje i każdy, a szczególnie wytwórcy GPU i producencji graf chcą mieć palmę pierwszeństwa w ilości marków. Żałosne, ale cóż taki jest obecnie Świat.

85.128.125.* napisał:
Dlaczego uważasz osoby kupujące najnowsze topowe karty za te "nie dokońca mających odpowiednią wiedzę"? Zdradzisz mi inny sposób, by móc się cieszyć najnowszymi pozycjami w 1280x1024max + eye candies? I co w tym żałosnego? icon_neutral3.gif

83.30.124.* napisał:
Może i nie chodzi o to ale są tacy żę mają 7800GTX i zaraz zmieniają na 7900GTX bo to lepsze. I dzięki takim mamy ciągłe wydawanie nowych kart a nie jedna karta na dwa lata i wszystko na HIGH. Przecież jak było z GeForce 4600 4200 były długo na rynku.

83.21.58.* napisał:
A ludzie nie mający zielonego pojęcia o kartach kupią 5200,zamiast naprzykład 4600 icon_wink3.gif

A co nam daje wychodzenie kart co rok? Twórcy teraz już nie przykładą pracy do optymalizowania gier bo po co skoro ciągle wychodzą nowe super karty i np. Taki LA Rush z denną grafiką chodzi mi 10x wolniej niż Far Cry z super grafą.

194.116.249.* napisał:

A co nam daje wychodzenie kart co rok?

ostatnio to co kilka miesiecy... :/ i te kilka oznacza 2-3miesiace :/

86.5.23.* napisał:
Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?! blink.gif Choćby wychodziły co kwartał to nikt ci broni do głowy nie przykłada, że masz kupić nowość. Kupisz co drugą - czwartą - albo za dwa lata jak masz ochote. Nic poza uczuciem nieaktualności naszego sprzętu złego się nie dzieje. Nie można nazywać kogoś jeleniem itp za to że kupuje nowość - bo tu każdy decyduje induwidualnie zależnie od wymagań i portfela i na jak długo (w przybliżeniu) chce by ta karta wystarczyła.

83.19.100.* napisał:

Ale jakoś nie widze powodu dla którego ma wam coś przeszkadzać w częstych premierach. Przecież i tak każdy kupuje to na co go stać. To co jak karta wyjdzie za dwa lata to będziesz te dwa lata składał kase na kolejną? Nie kapuje?! blink.gif Choćby wychodziły co kwartał to nikt ci broni do głowy nie przykłada, że masz kupić nowość. Kupisz co drugą - czwartą - albo za dwa lata jak masz ochote. Nic poza uczuciem nieaktualności naszego sprzętu złego się nie dzieje. Nie można nazywać kogoś jeleniem itp za to że kupuje nowość - bo tu każdy decyduje induwidualnie zależnie od wymagań i portfela i na jak długo (w przybliżeniu) chce by ta karta wystarczyła.

W pełni się z Tobą zgadzam , dzięki temu ze np teraz wyszła seria 79xxx zostały obnizone ceny innych kart , teraz za cene GF7800Gt(no prawie ale niedawno tyle kosztowała ta karta) mamy karte 7900GT wydajniejszą od wiele droższego 7800GTX , prawdopodobnie cena 7800GT spadnie porządnie a przeciez to jest bardzo wydajna karta !! ja widze same zalety . O ile nv jest ok o tyle Ati nie bardzo ... tzn nie teges bo u nv SM3.0 mamy od serii GF6 i chyba G80 tez będzie takie cos posiadało , u ATI jest inaczej X800 SM2.0+ x1xxx SM3.0 R600 (chyba) SM4.0 i to mi się nie bodoba , przynajmniej u nv jest stabilniej jakoś i jak coś wprowadzą to to trzymają póki nie ma większych potrzeb a ATI albo coś trzyma za długo albo za szybko(prawdopodobnie tak teraz będzie) zmienia strasznie ktrótki zywot miałby SM3.0 , moze dla innych wydaje się to głupie co teraz wypisałem ale nie pasuje mi to. aaa i nie mówcie ze nv pospieszyła się z SM3.0 teraz się to przydaje , przynajmniej można wszystkie efekty zobaczyć w nowszych grach icon_wink3.gif

217.144.217.* napisał:
Taa zwłaszcza na serii GF6 gdzie wsparcie SM3 bylo stanowczo na wyrost, które z tych kart pozwalaja na gre z HDR z wygladzaniem?? laugh.gif

83.19.100.* napisał:
nie iwem o co Ci chodzi widziałem tetsy np FAR CRy z SM3.0 i HDR i np 6600GT dawał sobie spokojnie rade , kazda sobie da rade powyżej i też włącznie z 6600GT , zresztą HDR i AA nie zawsze działą zalezy jaki AA będzie

80.48.127.* napisał:

Taa zwłaszcza na serii GF6 gdzie wsparcie SM3 bylo stanowczo na wyrost, które z tych kart pozwalaja na gre z HDR z wygladzaniem?? laugh.gif

seria gf 6 i 7 nie obsługują FSAA+Hdr , więc się doucz

195.205.45.* napisał:
O to mu wlasnie chodzilo icon_wink2.gif

btw: może ktoś zrobi topik :

G82 vs. R620 - czym nas zaskocza nowe dzieciaki ATI i NV
icon_confused2.gif


83.30.108.* napisał:
To co zmienić tytuł na tytuł od Buu?



85.128.125.* napisał:
misiek175, nie poznałbyś ironii nawet gdyby wyszła zza rogu i kopnęła Cię w kostkę...?

80.53.163.* napisał:
Jakos nie zauwazylem aby sie s.m. 3.0 do czegokolwiek przydal.

83.23.75.* napisał:

seria gf 6 i 7 nie obsługują FSAA+Hdr , więc się doucz

obsluguje. kwestia metody FSAA. przyklad - AoE3

217.144.217.* napisał:

obsluguje. kwestia metody FSAA. przyklad - AoE3


Dokladnie, choc to kwestia wsparcia konkretnej gry, bo oficjalnie to narazie GF nie wspieraja wygladzania w HDR, ale jak wiadomo SM3 i SM4 to kolejne chwyty marketingowe.

Roznica glowna miedzy seria R500 a R600 bedzie polegala na unifikacji jednostek ALU, czyli bez podzialu na blok vertex i pixel, oraz na nizszych kosztach produkcji(80nm), wyzszym taktowaniu?. Z zapowiedzi wynika, ze uklad ma mocno czerpac z doswiadczen Xenos-a, dzieki czemu ma ulecz zmniejszeniu powierzchnia ukladow scalonych i upakowanie z dzisiejszych az 384M, gdzie slono kosztuje to w produkcji niestety. W Xenos sam blok 48 procesorow ALU zajmuje zaledwie ok 105M przy 240M calosci, w R580 ponad polowe zajmuje "olbrzymi" kontroler pamieci, a napewno nowa seria zostanie wyposazona dodatkowo w zintegrowany uklad eliminujacy master karty w systemie Crossfire.

83.26.250.* napisał:

obsluguje. kwestia metody FSAA. przyklad - AoE3


Day Of Defeat: Source i niektore mapki do CS: Source takze.

83.6.113.* napisał:
To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :
"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"

Pozdrawiam icon_wink3.gif

83.11.156.* napisał:
KArty coraz lepsze wychodzić będą jeszcze długo!
Nawet gdzieś czytałem o nowych osobnych kartach do obliczeń fizyki, aby odciążyć procka!
Ta hegemonia zostanie przerwana dopiero jak mądrzejsi ludzie zaczną robić gry!

Czyli takie które wyglądają zaje... a mają małe wymagania!
Według mnie to będzie rewolucyjny engine!

Bo co z tego że masz ładny obraz skoro potrzebujesz do tego GRZEJNIKA Z SUSZARKĄ!

85.128.125.* napisał:
Mnie tam starcza wc lub accelero x2 (np.), suszarka nie jest potrzebna. Obserwuję twoje posty John i straszny demagog z ciebie.

86.5.23.* napisał:

To co tu napiszę nie są to moje słowa ale zupelnie się z nimi zgadzem :
"....Karty NV ( rodzina 6 ) od ponad roku dysponują SM3.0. Niejako przez przypadek pojawiły się pogłoski, jakoby karty Nvidii nie były zgodne z SM3.0 a nawet 2.0 . Ogłosiło to podobno laboratorium Ati po przeprowadzeniu wnikliwych testów. Tu nasuwa sie kilka refleksji. Po pierwsze może to tylko plotka . Jeśli zaś okazało by się to prawdą, może ktoś mi powie , po jaką c h o l e r ę w ogóle bawić się w unowocześnianie tych funkcji, jeżeli przez ponad rok cała armia kilkudziesięciu tysięcy fachowców i kilkudziesięciu milionów graczy nie potrafiła dostrzec różnicy między SM1.1 a SM3.0. Od dawna piszę że istotne jest to, co da się dostrzec podczas grania, a nie po skomplikowanej analizie ..W tym wypadku było jeszcze gorzej, bo zdaje się że i taka analiza zawiodła"

Pozdrawiam icon_wink3.gif

Polecam odpalić FarCry na karcie z dx8 i na karcie z dx9 - chyba ślepy by nie zauważył różnicy. Nagięta wypowiedź...

194.63.132.* napisał:
Polecam odpalić Far Cry -ale w pierwszej wersji(nie 1,33) na dx.8.1.włączyć BumpMapping,i pare innych drobiazgów i porównać z FEAR.
Bardzo interesujące porównanie,zważywszy jakie wymagania ma FC i FEAR.

A SM 1.1 vs 2.0 czasem można odróznić na screenshotach,bo w grach są to często tak subtelne różnice ,że jak ktoś by nam nie pokazał różnic to większość myślałaby ,że tak ma być.
Ale trzeba przyznać ,ze w nowych grach gdzie docelowo to SM2/SM3 róznice są już bardziej widoczne,wynika to z faktu ,że SM2/SM3 pozwala więcej osiągnąc mniejszym nakładem pracy.
A naturalną rzeczą jest ,to że w chwili premiery nowych kart z nowymi możliwościami przez ok.rok nie ma żadnej gry ,która pozwala to wykorzystać.

Podobne tematy


Działy









Copyright © 2002-2024 | Prywatność | Load: 1.34 | SQL: 1 | Uptime: 142 days, 12:45 h:m | Wszelkie uwagi prosimy zgłaszać pod adresem eddy@heh.pl