Trwa wyścig na sztuczne inteligencje rozumiejące język naturalny, ale każdy błąd uwydatnia niebezpieczeństwo związane ze zbyt szybkim tempem rozwoju i wprowadzaniem technologii dla mas, zanim zostanie ona w pełni sprawdzona. Jest to szczególnie prawdziwe w przypadku systemów SI, które podają informacje, które niektórzy mogą interpretować jako fakty. Wpadka Barda skończyła się spadkiem kursu macierzystej korporacji Alphabet o około 10 procent w ciągu tygodnia. Microsoft ogłosił napędzaną przez SI wyszukiwarkę Bing i przeglądarkę Edge, podczas gdy Google zaprezentowało światu Barda, eksperymentalną konwersacyjną SI napędzaną przez Model językowy dla aplikacji dialogowych (LaMDA). Chińska firma technologiczna Baidu również pracuje nad usługą podobną do ChatGPT o nazwie Ernie. Wszystkie te SI nadal są na wczesnym etapie rozwoju i będą potrzebowały więcej czasu, aby ich twórcy mogli dopracować wszystkie błędy, o czym świadczy żenujący błąd Barda. W krótkim filmie demonstrującym działanie Barda, SI została zapytana o odkrycia dokonane przez Kosmiczny Teleskop Jamesa Webba, którymi można by się podzielić z 9-latkiem. Bard udzielił kilku odpowiedzi, w tym, że teleskop „wykonał pierwsze zdjęcia planety spoza naszego Układu Słonecznego”. Problem w tym, że to nieprawda. https://twitter.com/Google/status/1622710355775393793 Według NASA, pierwsze zdjęcie planety pozasłonecznej (2M1207b) zostało wykonane w 2004 roku przez mieszczący się w Chile na pustyni Atakama Bardzo Duży Teleskop (Very Large Telescope) należący do Europejskiego Obserwatorium Południowego. Teleskop Webba w zeszłym roku zrobił swoje pierwsze zdjęcie egzoplanety, ale zdecydowanie nie było to pierwsze zdjęcie takiej planety w historii.
NASA
Tweet zawierający nieprawidłową odpowiedź został opublikowany 6 lutego i zgromadził ponad dwa miliony wyświetleń. Na początku zeszłego tygodnia Google oświadczyło, że udostępnia Barda zaufanym testerom zanim w najbliższych tygodniach udostępni go szerszej publiczności. W instrukcji obsługi napędzanej SI wyszukiwarki Bing Microsoft ostrzega, że może ona czasami podawać informacje, które brzmią przekonująco, ale są niedokładne, niekompletne lub nieprawdziwe. Firma z Redmond zachęca ludzi do stosowania własnego osądu i podwójnego sprawdzania faktów przed podjęciem decyzji lub działań opartych na odpowiedziach Bing.
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj