Sztuczna inteligencja to nie tylko czat


bigboy177 @ 17:31 28.03.2023
Marcin "bigboy177" Trela
Czasem coś piszę, czasem programuję, czasem projektuję, czasem robię PR, a czasem marketing... wszystko to, czego wymaga sytuacja. Uwielbiam gry, nie cierpię briefów reklamowych!

Niewiele osób zdaje sobie sprawę z tego, że dzisiejszy boom na sztuczną inteligencję możliwy jest dzięki m.in. firmie NVIDIA. Dlaczego? Już wyjaśniamy.

W ostatnim czasie często słyszymy o tym, że sztuczna inteligencja z impetem wkracza do kolejnych branż, a także o tym, że nastąpił jej znaczący rozwój. Najczęściej o sztucznej inteligencji mówi się w kontekście ChatGPT oraz generowaniu obrazów, a wiele osób zastanawia się nad przyszłością – zarówno świata, jak i branży, w której pracują. Nie każdy zdaje sobie sprawę z tego, że rozwój sztucznej inteligencji w znacznej mierze zawdzięczamy kartom graficznym. Postępy w opracowywaniu AI nie są groźne, a w przyszłości na pewno wiele z tego będzie płynąć korzyści. Dlaczego i jak to się stało? Już wyjaśniam.

Dlaczego karty graficzne są najlepsze do sztucznej inteligencji?


Od mniej więcej dekady, czyli gdy rozpoczęło się kopanie kryptowaluty, ludzie sobie zdali sprawę z tego, że jednostki stosowane w kartach graficznych, czyli GPU, są znacznie wydajniejsze od tych, które stanowią serce komputera, a zatem CPU. Karta graficzna jest w stanie podzielić większe zadania na pomniejsze procesy, a następnie równolegle przeprowadza ich kalkulacje. W przypadku trenowania sztucznej inteligencji stosowany jest bardzo podobny schemat działania. Algorytmy przetwarzają mnóstwo prostych danych, a w ten sposób szybko i sprawnie się uczą. GPU do tego typu obliczeń są lepsze, a jeden z czołowych producentów kart graficznych, NVIDIA, dawno dostrzegł w tym potencjał i zaczął rozwijać projekty w tym kierunku. DLSS 3 to efekt wielu lat pracy i rozwoju, a warto pamiętać, że to dopiero początek.

Celem DLSS 3 jest generowanie obrazu w taki sposób, by możliwie jak najbardziej odciążyć kartę graficzną. Kluczowa jest tu technologia zwana Frame Generator, która pozwala sztucznej inteligencji – na podstawie dwóch następujących po sobie klatek – wygenerować klatkę pośrednią. Algorytmy SI cały czas analizują to, co się dzieje i określają, w którym kierunku będzie następował ruch. Wiedzą to dzięki sieciom neuronowym, a efekt jest taki, że znacząco poprawia się płynność gier.

Gracze widzą efekt końcowy, ale warto pamiętać o tym, ile pracy włożono wcześniej w technologię stojącą za sztuczną inteligencją. Dla przykładu, szacuje się, że wytrenowanie GPT3 mogło trwać około 34 dni i choć to niewiele, bo dostajemy w rezultacie najpotężniejsze dostępne aktualnie AI, to trzeba też wspomnieć o sprzęcie, który to umożliwił. Komputer przeznaczony do tego celu musiałby pracować na dokładnie 1024 jednostkach NVIDIA GPU A100, a koszt całego przedsięwzięcia sięgałby 5 milionów dolarów. Nie każdy ma dostęp do takich rozwiązań oraz funduszy, co nie znaczy, że należy się od razu zniechęcać.

Jakie karty graficzne na start przygody ze sztuczną inteligencją?


Jak widać powyżej, trenowanie bardzo rozbudowanej sztucznej inteligencji wymaga mnóstwa czasu i pieniędzy, nie oznacza to jednak, że nie da się przygotować i wytrenować własnej sieci neuronowej. Można to oczywiście zrobić, a do tego celu wykorzystać domowy komputer.

Z oczywistych względów maszyna do tego celu musiałaby być możliwie jak najwydajniejsze. Aktualnie najlepszą dostępną kartą do nauki sztucznej inteligencji jest najnowszy układ firmy NVIDIA, czyli GeForce RTX 4090, a jeśli rozważacie jego zakup i chcielibyście mieć rozsądny stosunek ceny do jakości, to warto rozważyć karty graficzne tworzone przez firmy Palit oraz Gainward. Sprzęt ten będzie idealny do trenowania własnych sieci neuronowych, a powodów takiego stanu rzeczy jest kilka.

Układ RTX 4090 oferuje najwyższą czystą moc obliczeniową, ale nie oznacza to automatycznie, że nieco słabsze – choć nadal bardzo wydajne – jednostki się do AI nie nadają. Wręcz przeciwnie. Wyśmienicie sprawdzą się tu także modele takie, jak 4080 i 4070 Ti. Dysponują one – podobnie, jak RTX 4090 – rdzeniami tensor, które dedykowane są obliczeniom związanym ze sztuczną inteligencją. Niczego lepszego w tym momencie nie ma.

Rozsądną opcją jest np. konstrukcja firmy Palit w wersji 4080 GamingPro OC. Mimo że to sprzęt dedykowany graczom, wyśmienicie sprawdzi się on w innych zastosowaniach. W nazwie karty widnieje dopisek „OC”, a to oznacza, że jest ona fabrycznie podkręcona, co zagwarantuje Wam wyższą częstotliwość pracy i wydajność. To doskonały kompromis pomiędzy ceną, a wydajnością.

Mając odpowiedni sprzęt, nie pozostaje nam nic innego, jak rozejrzeć się za modelem AI do trenowania – są na szczęście gotowce. Najlepiej zacząć w tym przypadku od chatbota Emerson, który jest nieco prostszy od ChatGPT i pozwala nam wytrenować model do własnych celów. Uzyskaną w ten sposób sztuczną inteligencję możemy następnie umieścić w swojej stronie lub aplikacji. Emerson, posiadając wiedzę o naszej firmie lub produkcie, będzie w stanie rozsądnie i inteligentnie odpowiadać na pytania osób nimi zainteresowanych. Dobrym wyborem jest też ChatGPT 3.5 Turbo od OpenAI, który znajdziemy na stronie inicjatywy. Są na niej też wszelkie informacje potrzebne nam na start.

Jeśli chodzi o inne oprogramowanie, jest go w sieci mnóstwo. Firma NVIDIA udostępniła np. kod źródłowy takich narzędzi, jak NeRF, które na podstawie zwykłych dwuwymiarowych zdjęć generuje modele 3D, a to dopiero początek. Wszystko wskazuje na to, że w najbliższych latach czeka nas przełom, a nawet rewolucja nie tylko w generowaniu dwuwymiarowych obrazów, ale także w tworzeniu modeli 3D.

Przyszłość graczy


To, co algorytmy AI robią w świecie gamingu doceniają gracze z całego świata. Dzięki sztucznej inteligencji możliwe stało się opracowanie DLSS, które już w pierwszej swojej wersji wzbudziło ogromne zainteresowanie i poprawiło wydajność w grach. Najnowsze wersje DLSS, w połączeniu z obecnie dostępnymi GPU dają niesamowite rezultaty, a w kolejnych miesiącach i latach będzie tylko lepiej. Twórcy mają dostęp do większej wydajności, co przekłada się na coraz efektowniejsze i płynniejsze gry. Gracze natomiast w mniejszym stopniu muszą skalować oprawę wizualną do swoich podzespołów. Dzięki sztucznej inteligencji gra się nam lepiej. Deweloperzy będą mogli natomiast przygotowywać gry w krótszym czasie, co wypada uznać za sukces.

Do czterech razy sztuka


ChatGPT, który przygotowano na architekturze GPT3 dostępny jest w sieci od jakiegoś czasu, ale nie na wszystkich zrobił on tak samo duże wrażenie. Trzeba natomiast przyznać, że GPT4 to dość znaczący krok naprzód i już teraz mówi się o prawdziwej rewolucji. Dla porównania, GPT3 został wytrenowany na 175 miliardach parametrów, a w przypadku GPT4 mówimy o 100 bilionach parametrów. Projekt wymagał ogromnej mocy obliczeniowej oraz niebywałych funduszy, a mimo to nadal nie jest on szczytem naszych możliwości. Czy takowy kiedykolwiek poznamy? Koniecznie podzielcie się przemyśleniami w komentarzach.

Sprawdź także:
Dodaj Odpowiedź
Komentarze (15 najnowszych):


Powyższy wpis nie posiada jeszcze komentarzy. Napraw to i dodaj pierwszy, na pewno masz jakąś opinię na poruszany temat, prawda?