NVIDIA GeForce RTX 2080 Ti - zdjęcia pierwszego modelu od MSI

Topowa karta graficzna zbliżającej się generacji zaprezentowana na zdjęciach.

@ 18.08.2018, 12:24
Adam "Dirian" Weber
Chwalmy Słońce!
pc, sprzęt

NVIDIA GeForce RTX 2080 Ti - zdjęcia pierwszego modelu od MSI

W sieci pojawiły się pierwsze fotki karty NVIDIA GeForce RTX 2080 Ti. Będzie to najmocniejszy przedstawiciel nowej architektury nazwanej Turing. Oficjalna prezentacja kart odbędzie się już za 20 sierpnia, więc jeszcze we wrześniu powinny one trafić na sklepowe półki.

Póki co możemy rzucić okiem na fotki karty MSI NVIDIA GeForce RTX 2080Ti GAMING X TRIO, które opublikował serwis videocardz. Model ten będzie wyposażony w trzy wentylatory i  sporych rozmiarów radiator, a także podświetlenie LED i elegancki backplate. Do zasilania będą potrzebne 2 wtyczki 8-pin.

Nie znamy niestety dokładnej specyfikacji karty, ale za 2 dni wszystko powinno być jasne. 


Dodaj Odpowiedź
Komentarze (15 najnowszych):
0 kudosdenilson   @   08:46, 20.08.2018
Cytat: shuwar
Czy ja dobrze kombinuje? Do tej karty potrzebny jest jakiś hiper zasilacz z dwoma wtyczkami 8 pinowymi? To ile to będzie prądu żarło. Za chwilę okaże się, że do kompa potrzebna jest osobna instalacja trójfazowa Uśmiech Uśmiech
Przez tą prądożerność współczesnych stacjonarek nie myślę o nich. Już faktycznie lepiej mieć konsolę i do tego laptop co uciągnie starsze tytuły i współczesne mniej wymagające. Jeśli ktoś ma dom wolnostojący to dobrym rozwiązaniem byłyby kolektory solarne lub własny wiatrak.
2 kudosguy_fawkes   @   09:51, 20.08.2018
Cytat: logan23
Cytat: frycek88
Prawdziwe potwory, ciekawe jak będzie z wydajnością. O ceny nie pytam bo te na pewno będą wysokie.
Raczej karty wyglądające jak choinka. W Boże narodzenie. Dla mnie nic te karty nie wnoszą oprócz tego całego ray tracingu.

To trochę tak, jakby w 1999 roku ktoś powiedział, że "GeForce 256 nie wnosi nic oprócz tych całych jednostek T&L". ;) Czyli tyle i AŻ tyle. Póki co czekam jednak na gry, które faktycznie to pokażą.
A prądożernością w ogóle bym się nie przejmował. W domach mamy kuchnie elektryczne, lodówki, pralki, zmywarki, odkurzacze o różnych klasach oszczędności i jakoś trzeba z tym żyć. Poza tym nie popadajmy w paranoję - moc obliczeniowa kosztuje. Pobór prądu zwiększa też overclocking. Póki co apetyt Vegi 64 ciężko przebić. ;)
0 kudosDirian   @   10:12, 20.08.2018
Przecież obecny sprzęt wcale nie jest prądożerny mocno. Konfiguracja z i7 i GTX 1080 pod obciążeniem zeżre z 280W. Przeciętny komp z i5 i GTX 1060 to trochę ponad 200W. W spoczynku te wartości są dużo niższe. Gorzej to wygląda u AMD.
1 kudosguy_fawkes   @   10:19, 20.08.2018
Pewnie ludzie sugerują się tym, że dzisiaj standardem jest PSU >500W, co nie jest równoznaczne z poborem takiej ilości energii przez komponenty. A często widzę cuda typu 650W zasilacz z goldem do GTX1060. Trochę jak kwiatek do kożucha.
0 kudoslogan23   @   10:46, 20.08.2018
Cytat: guy_fawkes
Pewnie ludzie sugerują się tym, że dzisiaj standardem jest PSU >500W, co nie jest równoznaczne z poborem takiej ilości energii przez komponenty. A często widzę cuda typu 650W zasilacz z goldem do GTX1060. Trochę jak kwiatek do kożucha.
Żeby wydajność szła z ceną. A często ostatnio przepłacamy na podzespołach komputerowych. Bo różne firmy są zbyt chciwe. To wiadomo już że Nvidia zawyży cenę kart. Ma być ich wydane bardzo małe i podatek od nowości będzie duży. Bardzo duży.
0 kudosguy_fawkes   @   11:14, 20.08.2018
@UP: Praktycznie od zawsze istnieje granica opłacalności, do której każda wydana złotówka czy dolar przekładają się na wymierny wzrost wydajności. Powyżej tego dopłaca się już wiele za niewiele. Zresztą pisanie, że to teraz są wysokie ceny, to trochę absurd - w 1999 roku Pentium III 500MHz kosztował u nas 5000 zł. Przy ówczesnych zarobkach to ekwiwalent dzisiejszych ok. 9000 zł. A dziś do grania w maksymalnych detalach wystarcza konsumenckie i7 za 1500 zł. Ba, można także komfortowo grać na i5 za połowę tej kwoty. Rynek zespuli "górnicy", ale nowa generacja raczej nie zapowiada się interesująco z ich punktu widzenia. Swoje robi też obniżka cen dysków SSD - mówi się o zejściu do poziomu 8 centów za gigabajt. Kupno takiego nośnika o pojemności 512GB do domowego komputera poniżej 500 zł już nie jest niczym niezwykłym. I jakby tylko ten nieszczęsny RAM wrócił do starych cen, byłoby cacy.
0 kudoslogan23   @   11:59, 20.08.2018
Cytat: guy_fawkes
@UP: Praktycznie od zawsze istnieje granica opłacalności, do której każda wydana złotówka czy dolar przekładają się na wymierny wzrost wydajności. Powyżej tego dopłaca się już wiele za niewiele. Zresztą pisanie, że to teraz są wysokie ceny, to trochę absurd - w 1999 roku Pentium III 500MHz kosztował u nas 5000 zł. Przy ówczesnych zarobkach to ekwiwalent dzisiejszych ok. 9000 zł. A dziś do grania w maksymalnych detalach wystarcza konsumenckie i7 za 1500 zł. Ba, można także komfortowo grać na i5 za połowę tej kwoty. Rynek zespuli "górnicy", ale nowa generacja raczej nie zapowiada się interesująco z ich punktu widzenia. Swoje robi też obniżka cen dysków SSD - mówi się o zejściu do poziomu 8 centów za gigabajt. Kupno takiego nośnika o pojemności 512GB do domowego komputera poniżej 500 zł już nie jest niczym niezwykłym. I jakby tylko ten nieszczęsny RAM wrócił do starych cen, byłoby cacy.
Gdyby Nvidia zainteresował się odpowiedni urząd a naszymi Januszami lokalnymi skarbówka. Urzędy odpowiednie. A Ceo Nvidia doznał paru złamać kończyn górnych i dolnych. Zrozumiał po tym złamaniu że ceny są za duże obniżamy i wziął się za partnerów na świecie. Że do każdej umowy dostaliby aneks że mają sprzedać w takiej i takiej cenie. Jestem po prostu wkurzony tym całym cwaniactwem naszych lokalnych Januszów i Nvidii.
1 kudosguy_fawkes   @   13:39, 20.08.2018
logan Korwinem Miasta Gier, Robinem z Polandwoodu.

A na serio to koszt produkcji najwydajniejszych komponentów jest wyższy od tych słabszych, to normalne i wiadome. Wymagania do spełnienia są dużo surowsze, a odsetek strat i koszty wyższe, co prowadzi do znacznie wyższej ceny końcowego produktu.
A tak poza tym, to nikt nikogo do kupna nie zmusza. Głosuje się portfelem, a wypisywanie głupot o łamaniu komuś rąk tylko za to, że robi biznes dla zysku jak każda firma, jest wyjątkowo niedojrzałe, żenujące i poniżej wszelkiej krytyki.
0 kudoslogan23   @   14:04, 20.08.2018
Cytat: guy_fawkes
logan Korwinem Miasta Gier, Robinem z Polandwoodu.

A na serio to koszt produkcji najwydajniejszych komponentów jest wyższy od tych słabszych, to normalne i wiadome. Wymagania do spełnienia są dużo surowsze, a odsetek strat i koszty wyższe, co prowadzi do znacznie wyższej ceny końcowego produktu.
A tak poza tym, to nikt nikogo do kupna nie zmusza. Głosuje się portfelem, a wypisywanie głupot o łamaniu komuś rąk tylko za to, że robi biznes dla zysku jak każda firma, jest wyjątkowo niedojrzałe, żenujące i poniżej wszelkiej krytyki.
Jak to pisałem byłem wzburzony. To mnie nie usprawiedliwia. Ale po prostu żeby nawet karty pokroju 1060 6gb. Utrzymywały takie ceny. Gdzie minął boom na koparki i trzy lata od premiery. To już przesada, dodatkowo stagnacja z grafiką. Gdzie gry wyglądają tragiczne a nawet gorzej od gier z przed kilku lat.
0 kudoskobbold   @   19:36, 20.08.2018
Plusem wprowadzania nowych modeli jest, że starsze zaczną tanieć. Może, przez górników, nie tak szybko jak dotychczas ale jednak zaczną.
0 kudoslogan23   @   20:20, 20.08.2018
Cytat: kobbold
Plusem wprowadzania nowych modeli jest, że starsze zaczną tanieć. Może, przez górników, nie tak szybko jak dotychczas ale jednak zaczną.
Akurat ja czekam na 2060. Jakoś po tej konferencji wydaje mi się to rozsądniejszy zakup. Choć nie wiele pokazali. Na niej na temat specyfikacji.
0 kudosdabi132   @   21:38, 20.08.2018
Seria 1060 i nadchodząca 2060 to karty wystarczające dla zwykłego zjadacza chleba, pozwalające pograć w FullHD w najnowsze gry. Nie oszukujemy się, póki co 4K jest nie na kieszeń statystycznego Kowalskiego, a nie ma sensu pakować się w tanie monitory 4K.
0 kudoslogan23   @   21:41, 20.08.2018
Cytat: dabi132
Seria 1060 i nadchodząca 2060 to karty wystarczające dla zwykłego zjadacza chleba, pozwalające pograć w FullHD w najnowsze gry. Nie oszukujemy się, póki co 4K jest nie na kieszeń statystycznego Kowalskiego, a nie ma sensu pakować się w tanie monitory 4K.
Mnie interesuje czy 2060. Będzie miała ten cały ray tracing. Po prostu zweryfikowałem własne plany na złożenie komputera i będę odkładał trochę dłużej na komputer. Jakoś wytrzymam a do korzystania kupię jakiegoś poleasingowego laptopa.
0 kudosbalic87   @   11:31, 21.08.2018
Cytat: logan23
Cytat: dabi132
Seria 1060 i nadchodząca 2060 to karty wystarczające dla zwykłego zjadacza chleba, pozwalające pograć w FullHD w najnowsze gry. Nie oszukujemy się, póki co 4K jest nie na kieszeń statystycznego Kowalskiego, a nie ma sensu pakować się w tanie monitory 4K.
Mnie interesuje czy 2060. Będzie miała ten cały ray tracing. Po prostu zweryfikowałem własne plany na złożenie komputera i będę odkładał trochę dłużej na komputer. Jakoś wytrzymam a do korzystania kupię jakiegoś poleasingowego laptopa.
Modele Kart do 2060 nie bedzie obslugiwala tej technologii, jedynie wyzsze modele od 2070 ... Mnie osobiscie podoba sie model 2050 ze wzgledu na rzekoma 50% wieksza wydajnosc od swojej poprzedniczki Szczęśliwy
0 kudoslogan23   @   21:04, 21.08.2018
Cytat: balic87
Cytat: logan23
Cytat: dabi132
Seria 1060 i nadchodząca 2060 to karty wystarczające dla zwykłego zjadacza chleba, pozwalające pograć w FullHD w najnowsze gry. Nie oszukujemy się, póki co 4K jest nie na kieszeń statystycznego Kowalskiego, a nie ma sensu pakować się w tanie monitory 4K.
Mnie interesuje czy 2060. Będzie miała ten cały ray tracing. Po prostu zweryfikowałem własne plany na złożenie komputera i będę odkładał trochę dłużej na komputer. Jakoś wytrzymam a do korzystania kupię jakiegoś poleasingowego laptopa.
Modele Kart do 2060 nie bedzie obslugiwala tej technologii, jedynie wyzsze modele od 2070 ... Mnie osobiscie podoba sie model 2050 ze wzgledu na rzekoma 50% wieksza wydajnosc od swojej poprzedniczki Szczęśliwy
Czyli 2060. Nie łapię się na ten cały ray tracing. A na razie te 2060 i 2050. To teoretycznie mogą mieć większą wydajność na razie trzeba czekać. Na jakieś solidne testy.
Dodaj Odpowiedź