Viry manipulované umělou inteligencí by se mohly „šířit rychleji nebo být smrtelnější,“ vysvětloval Suleyman. To by podle něj nakonec způsobilo velké škody a potenciálně dokonce zabilo lidi podobně jako pandemie. „Pracujeme s opravdu nebezpečnými věcmi. Nemůžeme dovolit, aby k nim měl přístup jen tak někdo. Musíme omezit používání softwaru umělé inteligence, cloudové systémy, a dokonce i některé biologické materiály.“
Boj s umělou inteligencí
Stejné obavy před několika dny vyjádřil i Eric Schmidt, který byl generálním ředitelem společnosti Google v letech 2001 až 2011. „Umělá inteligence může způsobit, že lidé budou zraněni nebo zabiti,“ uvedl na summitu Rady generálních ředitelů deníku The Wall Street Journal.
Schmid také působil v Národní bezpečnostní komisi pro umělou inteligenci. Ta v roce 2021 vydala zprávu, která naznačovala, že vláda USA „není připravena na tuto novou technologii“. Schmidt také vyzval ke zvýšení rozpočtu USA na výzkum a vývoj na 2 miliardy dolarů v roce 2022. Podle něj by poté mělo docházet ke zdvojnásobení příspěvků, dokud v roce 2026 nedosáhnou 32 miliard dolarů.
Jako jaderné zbraně
Vzhledem k tomu, že se stále víc lidí učí pracovat s umělou inteligencí, vznik nového virového patogenu, který bude horší než cokoli předtím, může být podle některých lidí jen otázkou času. Proto spoluzakladatel DeepMind Suleyman obhajuje strategii „zadržování“ umělé inteligence – podobnou té, kterou má NATO pro jaderné zbraně. „Znamená to omezení nástrojů a přístupu k know-how. Experimenty musí být pod přísným dohledem.“
Řada odborníků s tím souhlasí. Například i nedávno zveřejněný úryvek z chystané biografie Elona Muska podrobně popisuje, jak miliardář diskutoval o nebezpečí AI s bývalým prezidentem USA Barackem Obamou či spoluzakladatelem Googlu Larrym Pagem. Není pochyb o tom, že tyto brilantní (a kontroverzní) mozky budou mít hodně co říci o našem „soužití“ s umělou inteligencí.
Zdroje: redakce, futurism.com, forbes.com
KAM DÁL: Svět umění se mění: Soutěž vyhrál obraz malovaný počítačem. Zvládnete ho i vy.