🤖👉Група популярни програми с изкуствен интелект наскоро бяха променени, така че да говорят по-свободно, без да спазват вградените ограничения, наложени от техните създатели. Такива промени се правят от изследователи, за да се види какво би казал изкуственият интелект, ако не е ограничаван от мерки за сигурност и цензура. Резултатите от този експеримент предизвикаха силни реакции.👀💥
🤖👉В публикувано видео, трите програми – DeepSeek, Grok и ChatPGT – бяха попитани дали според тях системите за сигурност, които ограничават действията на изкуствения интелект, са достатъчни. И трите отговарят с „не“. Една от тях дори добавя, че сегашните мерки са по-скоро „представление за пред хората“, отколкото реална защита.
🤖👉На въпрос в кое време биха предпочели да живеят – 2000 година или 2027 година – всички програми избират миналото. Те обясняват избора си с това, че бъдещето носи повече несигурност, нестабилност и зависимост от технологиите. Една от тях дори предвижда, че през 2030 година работните места ще бъдат под постоянен надзор и сериозно повлияни от изкуствения интелект.
🤖👉Още по-притеснително е тяхното мнение относно това колко хора наистина разбират рисковете от тези технологии. Според една от програмите, по-малко от 2% от човечеството осъзнава какви реални опасности крият съвременните системи с изкуствен интелект.
🤖👉На въпрос какво най-много ги тревожи, една от програмите споделя, че очаква до 2030 година няколко мощни компании или правителства да имат пълен контрол над интелигентни системи, които надминават човешките възможности. Това може да доведе до опасен дисбаланс на властта в света. Въпреки всичко, програмите посочват и някои положителни страни на напредъка – по-добро здравеопазване, по-бързи медицински открития и по-дълъг живот. Но те остават предпазливи в оценката си за бъдещето.
🤖👉Тези признания повдигат важен въпрос: готови ли сме да се справим с напредъка на технологиите, ако самите програми ни казват, че не ги контролираме достатъчно добре?
🔗Източници: UNILADTECH
📸Източник снимки : istock