Technologie

„Infocalypse“ je na nás a bude se to zhoršovat, říká přední výzkumný pracovník

„Infocalypse“ je na nás a bude se to zhoršovat, říká přední výzkumný pracovník

Zatímco výraz „Čtyři jezdci Infocalypse“ se na internetu již dlouho používá k označení zločinců, jako jsou obchodníci s drogami, praní špinavých peněz, pedofilové a teroristé, pojem „Infocalypse“ přinesl do hlavního proudu relativně nedávno MIT grad Aviv Ovadya, který v současné době pracuje jako hlavní technolog v Centru pro odpovědnost za sociální média (UMSI). V roce 2016, v době vrcholící krize falešných zpráv, vyjádřil Ovadya technologům v Silicon Valley obavy z šíření dezinformací a propagandy maskované jako skutečné zprávy v prezentaci s názvem „Infocalypse“.

Podle jeho prezentace je internetová platforma, jako je Google, Facebook a Twitter, výdělek zaměřena spíše na odměňování za kliknutí, sdílení a sledovanost než na upřednostňování kvality informací. Tvrdil, že to bude skutečný problém spíše dříve než později, vzhledem k tomu, jak snadné je zveřejnit vše, na co se kdokoli cítí, bez jakéhokoli filtru. Ovadya popsal situaci jako hlavní internetové společnosti, které jeho obavy do značné míry ignorovaly „Auto se vymklo kontrole“ což všichni prostě ignorovali.

I když se jeho předpovědi nyní ukázaly být děsivě přesné, pro ty, kteří se obávají stírání hranic mezi pravdou a politicky motivovanou propagandou, existují další špatné zprávy. Podle něj bude AI v příštích několika desetiletích široce využívána pro dezinformační kampaně a propagandu. Aby se tato dystopická budoucnost zastavila, pracuje Ovadya společně se skupinou vědců a akademiků, aby zjistila, co lze udělat zabránit informační apokalypse.

Jedním z takových aspektů jsou deepfakes nebo videa celebrit generovaná umělou inteligencí proměněná na jiných videích, převážně na pornu. Reddit nedávno zakázal nejméně dva takové subreddity zvané „r / deepfakes“ a „r / deepfakesNSFW“, které již měly tisíce členů, a distribuovaly falešná pornografická videa různých celebrit, jako jsou Taylor Swift, Meghan Markle a podobné. Jiné platformy, jako Discord, Gyfcat, Pornhub a Twitter, mezitím také zakázaly pornografické pornografie na svých platformách bez souhlasu.

Kromě porušování soukromí jednotlivců Ovadya říká, že taková videa mohou mít destabilizující účinek na svět, pokud budou použita k politickým ziskům. Mohou „vytvořit víru, že došlo k události“, aby ovlivnili geopolitiku a ekonomiku. Vše, co potřebujete, je nakrmit umělou inteligenci co největším počtem záběrů cílového politika a nechat je proměnit v jiném videu, které říká potenciálně škodlivé věci.

Jediným kouskem naděje však je, že lidé konečně připouštějí, že se mýlili, když před dvěma lety vyloučili hrozbu z falešných zpráv. Podle Ovadyi, "Zpočátku to bylo opravdu bezútěšné - málo lidí poslouchalo. Ale posledních pár měsíců bylo opravdu slibných. Některé kontroly a zůstatky začínají zapadat na své místo “. I když je jistě pozitivem, že se technologové snaží řešit problém, u kterého se očekává, že se v příštích letech zhorší, bude zajímavé sledovat, jak dobře budou připraveni na nadcházející informační válku, když se nám konečně představí nejhorší scénář , vzhledem k tomu, "Mnoho varovných signálů se již stalo", podle Ovadyi.

Top 5 chyb, které malé a střední podniky dělají v SEO
SEO nebo optimalizace pro vyhledávače je zaměřena na poskytování nejlepšího online zážitku pro uživatele; zaměřit se na jejich potřeby a poskytnout ji...
Jak Jak získat digitální pohodu na libovolném zařízení Android Pie (bez kořenového adresáře)
Jak získat digitální pohodu na libovolném zařízení Android Pie (bez kořenového adresáře)
Mezi mnoha novými funkcemi Android Pie byla jednou z největších (a možná jednou z nejužitečnějších) technologie Digital Wellbeing - pokus Google pomoc...
Jak Jak skrýt aplikace na iPhone nebo iPad bez aplikací třetích stran
Jak skrýt aplikace na iPhone nebo iPad bez aplikací třetích stran
Všichni máme svá tajemství, že? A některá z těchto tajemství se skrývají uvnitř našich smartphonů. Existuje mnoho aplikací, které obsahují naše osobní...