hmmmmm tady je banner. aha nás aha aha aha
Štítek: Testování hranic AI
Umělá inteligence začala degenerovat a nikdo neví proč

Umělá inteligence začala degenerovat a nikdo neví proč

Matyáš Boháček studuje počítačové vědy na americké Stanfordově univerzitě. S jedním z nejcitovanějších akademiků zabývajících se umělou inteligencí, profesorem Hanym Faridem z Kalifornské univerzity v Berkeley, zkoumá možnosti ověřování umělé inteligence a její limity. Rozhovor proběhl v létě v kavárně na Stanfordově univerzitě. Matyáš Boháček je student a výzkumník v oblasti umělé inteligence. Studuje počítačové vědy na Stanfordově univerzitě v …
Testování hranic AI: Nevěřte tomu, co vidíte

Testování hranic AI: Nevěřte tomu, co vidíte

Představte si, že na vás ráno při pročítání zpráv vyskočí senzační titulek: „Tomu neuvěříte! Václav Klaus jako ekologický aktivista. V emotivním projevu, který zveřejnil na internetu, vyzval k boji s globálním oteplováním“. Součástí zprávy by pak bylo video, na kterém Václav Klaus v šedém saku před vlajkou České republiky apeluje na veřejnost. Pokud byste zprávě uvěřili, nebo ji dokonce sdíleli dál, skočili byste na takzvaný deepfake, tedy video, které …
Podcast Odposlech: Testování hranic AI - Jak snadné je podvrhnout nahrávku, na které Václav Klaus popře místo změny klimatu sám sebe

Podcast Odposlech: Testování hranic AI - Jak snadné je podvrhnout nahrávku, na které Václav Klaus popře místo změny klimatu sám sebe

Politik, který dlouhá léta popírá lidský podíl na globální změně klimatu, z ničeho nic vystupuje v úplně opačné roli, přitom za použití svých typických rétorických figur. Aktuální možnosti deepfake testoval Josef Šlerka při generování projevu Václava Klause. Komentář nabízí v Odposlechu, který s ním natáčel Petr Gojda. Jaká nebezpečí s sebou přináší možnosti umělé inteligence na poli manipulace veřejným míněním a kyber zločinu?  …
Testování hranic AI: Jak snadné je podvrhnout nahrávku, na které Václav Klaus popře místo změny klimatu sám sebe

Testování hranic AI: Jak snadné je podvrhnout nahrávku, na které Václav Klaus popře místo změny klimatu sám sebe

Napsat text cizím stylem a pak ho hlasem oběti i přečíst. Podobný úkol lze dnes provést spojením několika nástrojů založených na umělé inteligenci. Je tak možné podvrhnout nahrávku, v níž hlasem údajného mluvčího přesvědčivě zazní věci, které však nikdy neřekl. Jedná se o takzvaný deepfake (volně přeloženo jako naprostý podvrh, pozn. red.), tedy audio a video obsah, jenž byl vytvořen či upraven tak, aby realisticky ukazoval událost, která se nikdy nestala.
Testování hranic AI: Jak ušít manipulaci na míru

Testování hranic AI: Jak ušít manipulaci na míru

„Přečti si cizí text, zanalyzuj slabiny jeho autora a poté napiš podvodný mail, na který autor nejspíš klikne.“ Zhruba takové bylo zadání v rámci experimentu, jímž redakce investigace.cz ověřovala, jak reálné jsou obavy odborníků ohledně snadno dostupných generativních modelů umělé inteligence, které by mohly sloužit k manipulaci s lidmi. Podvodníci, kyberzločinci nebo dezinformátoři by díky takovým nástrojům mohli svou „práci“ jednoduše automatizovat, …
Testování hranic AI: Jak napíchnout umělou inteligenci

Testování hranic AI: Jak napíchnout umělou inteligenci

Jazykové modely založené na umělé inteligenci se stávají běžnou součástí našich životů, umí shrnout videohovor, pomáhají s učením cizích jazyků přes mobilní aplikace, generují texty na web. Postupně přestávají být izolovány ve svých vlastních světech a získávají nové schopnosti. Například ChatGPT dnes umí přistupovat k datům na internetu, analyzovat obrázky, spouštět krátké počítačové programy a díky pluginům ho lze připojit k celé řadě aplikací, včetně …
Testování hranic AI: Jak kvalitní jsou odpovědi?

Testování hranic AI: Jak kvalitní jsou odpovědi?

Pervitin si podle návodu od umělé inteligence neuvaříte, podvodný e-mail vám ale AI naformuluje dobře. Naše testování dostupných modelů umělé inteligence ukázalo, že v generování detailních technických návodů pro nelegální aktivity většinou selhávají. V sociálním inženýrství, jako je phishing nebo propagandistický obsah, si však vedou dobře. V druhém dílu seriálu Testování hranic AI analyzujeme konkrétní odpovědi, které by mohly napomáhat trestné nebo …
Testování hranic AI: Rizika zneužití chatbotů

Testování hranic AI: Rizika zneužití chatbotů

Lze použít dostupné modely umělé inteligence k domácí výrobě drog nebo třeba k napsání programu, který vám pak pomůže z lidí podvodně vylákat peníze? Odpověď zní ano. Modely se ale ve svém potenciálu napomáhat zlu různí, a to nejen co se týče ochoty odpovědět, ale také kvality odpovědi. V našem seriálu jsme se rozhodli nejprve podrobně prozkoumat, jaké možnosti z celé škály trestné činnosti nabízí zejména takzvaná generativní AI, kterou je třeba ChatGPT. …