Elon Musk ostrzega: Nadszedł kres sztucznej inteligencji

Według Elona Muska, firmy zajmujące się sztuczną inteligencją (AI) wyczerpały dostępne zasoby ludzkiej wiedzy potrzebne do trenowania modeli. Ci, którzy korzystają ze sztucznej inteligencji bez umiaru, mogą wpaść w jej sidła.
Miliarder twierdzi, że firmy technologiczne będą zmuszone do korzystania z danych "syntetycznych" - czyli materiałów tworzonych przez same modele AI - aby dalej rozwijać swoje systemy. Proces ten już się rozpoczął, wraz z dynamicznym rozwojem technologii.
Ludzie, którzy sami pozbawieni inteligencji, posiłkują się sztuczną, by zaistnieć - udając kogoś kim nie są, tworząc zakłamany obraz samego siebie, np. przed pracodawcą - mogą mieć problem.
Musk oświadczył w wywiadzie na platformie X, że „skumulowana suma ludzkiej wiedzy została w zasadzie wyczerpana w szkoleniu sztucznej inteligencji w zeszłym roku”.
Modele AI takie jak GPT-4o, który napędza bota ChatGPT, są szkolone na ogromnych zbiorach danych pobieranych z internetu, gdzie uczą się identyfikować wzorce. To z kolei pozwala im przewidywać np. kolejne słowo w zdaniu. Musk uważa, że jedynym sposobem na kontynuowanie rozwoju modeli jest przejście na dane syntetyczne, generowane przez AI.
Firmy takie jak Meta, właściciel Facebooka i Instagrama, oraz Microsoft już wykorzystują dane syntetyczne do ulepszania swoich modeli AI, odpowiednio Llama AI i Phi-4. Również Google i OpenAI, twórca ChatGPT, stosują podobne techniki.
Musk ostrzegł jednak przed "halucynacjami" modeli AI, czyli generowaniem nieścisłych i bezsensownych odpowiedzi. Te halucynacje stanowią zagrożenie dla procesu syntezy danych, ponieważ trudno jest odróżnić odpowiedź wygenerowaną poprawnie od tej z błędem.
To sprawia, że możemy wkrótce dojść do momentu, w którym trzeba będzie weryfikować prawdziwość informacji. Za sztuczną inteligencją zawsze powinna stać jednak inteligencja ludzka.
Kontrola i jakość danych stają się kluczowe w prawnych sporach związanych z boomem na AI. OpenAI przyznało, że stworzenie narzędzi takich jak ChatGPT bez dostępu do materiałów chronionych prawami autorskimi byłoby niemożliwe. Jednocześnie przemysł kreatywny i wydawnictwa domagają się rekompensat za wykorzystanie ich dzieł w procesie szkolenia modeli.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca.
Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Jesteśmy na platformie X: Bądź z nami na X