Nowe techniki szkolenia AI mają na celu przezwyciężenie obecnych wyzwań

OpenAI i inne wiodące firmy AI rozwijają nowe techniki szkolenia, aby przezwyciężyć ograniczenia obecnych metod. Rozwiązując nieoczekiwane opóźnienia i komplikacje w rozwoju większych, bardziej zaawansowanych modeli językowych, te nowe techniki koncentrują się na zachowaniach podobnych do ludzkich, aby nauczyć algorytmy „myślenia”.

Podobno kierowane przez tuzin badaczy AI, naukowców i inwestorów, nowe techniki szkolenia, które stanowią podstawę niedawnego modelu „o1” OpenAI (dawniej Q* i Strawberry), mają potencjał do przekształcenia krajobrazu rozwoju AI. Zgłoszone postępy mogą wpłynąć na rodzaje lub ilości zasobów, które firmy AI muszą stale posiadać, w tym specjalistyczny sprzęt i energię, aby wspierać rozwój modeli AI.

Model o1 jest zaprojektowany do rozwiązywania problemów w sposób naśladujący ludzkie rozumowanie i myślenie, dzieląc liczne zadania na kroki. Model wykorzystuje również specjalistyczne dane i opinie dostarczane przez ekspertów z branży AI, aby poprawić swoją wydajność.

Advertisement

Od czasu, gdy OpenAI wprowadziło ChatGPT w 2022 roku, nastąpił wzrost innowacji w dziedzinie AI, a wiele firm technologicznych twierdzi, że istniejące modele AI wymagają rozszerzenia, czy to poprzez większe ilości danych, czy ulepszone zasoby obliczeniowe. Tylko wtedy modele AI mogą się konsekwentnie poprawiać.

Obecnie eksperci AI zgłosili ograniczenia w skalowaniu modeli AI. Lata 2010 były rewolucyjnym okresem dla skalowania, ale Ilya Sutskever, współzałożyciel laboratoriów AI Safe Superintelligence (SSI) i OpenAI, mówi, że szkolenie modeli AI, szczególnie w zakresie rozumienia struktur i wzorców językowych, osiągnęło plateau.

„Lata 2010 były erą skalowania, teraz wracamy do epoki cudów i odkryć. Skalowanie właściwej rzeczy ma teraz większe znaczenie” – powiedzieli.

W ostatnich czasach badacze laboratoriów AI doświadczyli opóźnień i wyzwań w rozwijaniu i wprowadzaniu dużych modeli językowych (LLM), które są bardziej zaawansowane niż model GPT-4 OpenAI.

Po pierwsze, istnieje koszt szkolenia dużych modeli, często sięgający dziesiątek milionów dolarów. A z powodu komplikacji, które się pojawiają, takich jak awarie sprzętu z powodu złożoności systemu, ostateczna analiza działania tych modeli może zająć miesiące.

Oprócz tych wyzwań, sesje szkoleniowe wymagają znacznych ilości energii, co często prowadzi do niedoborów mocy, które mogą zakłócać procesy i wpływać na szerszą sieć elektryczną. Innym problemem jest ogromna ilość danych, które wykorzystują duże modele językowe, do tego stopnia, że modele AI podobno wykorzystały wszystkie dostępne dane na świecie.

Badacze badają technikę znaną jako „obliczenia w czasie testu”, aby poprawić obecne modele AI podczas szkolenia lub w fazach wnioskowania. Metoda może obejmować generowanie wielu odpowiedzi w czasie rzeczywistym, aby zdecydować o zakresie najlepszych rozwiązań. W związku z tym model może przydzielać większe zasoby przetwarzania do trudnych zadań, które wymagają podejmowania decyzji i rozumowania podobnego do ludzkiego. Celem jest uczynienie modelu bardziej dokładnym i zdolnym.

Noam Brown, badacz w OpenAI, który pomógł w opracowaniu modelu o1, podzielił się przykładem, jak nowe podejście może osiągnąć zaskakujące wyniki. Na konferencji TED AI w San Francisco w zeszłym miesiącu Brown wyjaśnił, że „sprawienie, by bot myślał przez zaledwie 20 sekund w rozdaniu pokera, dało taki sam wzrost wydajności, jak zwiększenie modelu 100 000 razy i szkolenie go 100 000 razy dłużej”.

Zamiast po prostu zwiększać rozmiar modelu i czas szkolenia, może to zmienić sposób, w jaki modele AI przetwarzają informacje i prowadzić do bardziej zaawansowanych, wydajnych systemów.

Podobno inne laboratoria AI opracowują wersje techniki o1. Należą do nich xAI, Google DeepMind i Anthropic. Konkurencja w świecie AI nie jest niczym nowym, ale możemy zobaczyć znaczący wpływ na rynek sprzętu AI w wyniku nowych technik. Firmy takie jak Nvidia, które obecnie dominują w dostawach chipów AI z powodu dużego popytu na ich produkty, mogą być szczególnie dotknięte zaktualizowanymi technikami szkolenia AI.

Nvidia stała się najcenniejszą firmą na świecie w październiku, a jej wzrost fortuny można w dużej mierze przypisać wykorzystaniu jej chipów w macierzach AI. Nowe techniki mogą wpłynąć na pozycję rynkową Nvidii, zmuszając firmę do dostosowania swoich produktów do zmieniającego się zapotrzebowania na sprzęt AI. Potencjalnie może to otworzyć więcej dróg dla nowych konkurentów na rynku wnioskowania.

Nowa era rozwoju AI może być na horyzoncie, napędzana przez ewoluujące wymagania sprzętowe i bardziej wydajne metody szkolenia, takie jak te stosowane w modelu o1. Przyszłość zarówno modeli AI, jak i firm za nimi stojących, może zostać przekształcona, odblokowując bezprecedensowe możliwości i większą konkurencję.

Advertisement