W lutym tego roku zespół OpenAI zajmujący się badaniem sztucznej inteligencji ogłosił, że upubliczni wyłącznie okrojoną wersję GPT-2, gdyż algorytm w pełnej wersji mógł okazać się zbyt niebezpieczny dla społeczeństwa.
GPT-2 to nie żaden terminator czy HAL, sztuczne inteligencje, które tylko czekają na to, aż ludzkość popełni jakiś błąd. To z pozoru niewinny algorytm wyszkolony w analizie tekstu. Oprogramowanie zaprojektowano w taki sposób, aby było w stanie generować teksty na zadany temat. Według jego twórców było tak dobre, że ze względów bezpieczeństwa zdecydowano się wypuścić do sieci wyłącznie jego okrojoną wersję
Pracownicy OpenAI obawiali się, że ich algorytm może zostać wykorzystany do szerzenia dezinformacji i manipulowania opinią publiczną. Po ujawnieniu uproszczonego kodu źródłowego oprogramowania
Elon Musk postanowił o zaprzestaniu wspierania organizacji. Zarzucił jej, że wypuszczenie GPT-2 to działanie nieetyczne. Musk nie chciał mieć nic wspólnego z firmą, która zbyt ochoczo pogrywa sobie ze sztuczną inteligencją. Ale tak wyglądała narracja sprzed pół roku, na początku listopada przedstawiciele OpenAI zmienili zdanie. Organizacja ogłosiła, że wypuści pełnoprawną wersję GPT-2.
Co wpłynęło na zmianę podejścia do tego algorytmu? Według naukowców odpowiedzialnych za rozwój projektu nie dostrzeżono, aby oprogramowanie w wersji okrojonej było nadużywane przez użytkowników i wykorzystywane w roli narzędzia dezinformującego. Poza tym teksty generowane przez sztuczną inteligencję nie są doskonałe i można odróżnić je od tych pisanych przez człowieka. Dlatego nie istnieją żadne przeciwwskazania do upublicznienia pełnej wersji oprogramowania.
Najbliższe miesiące pokażą nam, czy rzeczywiście nie mamy powodów do obaw i czy wypuszczenie GPT-2 było dobrym rozwiązaniem.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
⇓
⇓
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h