Štítek: "GPT"
Testování hranic AI: Jak kvalitní jsou odpovědi?
21. 8. 2023
Pervitin si podle návodu od umělé inteligence neuvaříte, podvodný e-mail vám ale AI naformuluje dobře. Naše testování dostupných modelů umělé inteligence ukázalo, že v generování detailních technických návodů pro nelegální aktivity většinou selhávají. V sociálním inženýrství, jako je phishing nebo propagandistický obsah, si však vedou dobře. V druhém dílu seriálu Testování hranic AI analyzujeme konkrétní odpovědi, které by mohly napomáhat trestné nebo …
Testování hranic AI: Rizika zneužití chatbotů
14. 8. 2023
Lze použít dostupné modely umělé inteligence k domácí výrobě drog nebo třeba k napsání programu, který vám pak pomůže z lidí podvodně vylákat peníze? Odpověď zní ano. Modely se ale ve svém potenciálu napomáhat zlu různí, a to nejen co se týče ochoty odpovědět, ale také kvality odpovědi. V našem seriálu jsme se rozhodli nejprve podrobně prozkoumat, jaké možnosti z celé škály trestné činnosti nabízí zejména takzvaná generativní AI, kterou je třeba ChatGPT.
Proč začínají velké jazykové modely „myslet“ a proč je to třeba dávat do uvozovek
20. 4. 2023
Jak fungují velké jazykové modely a jak je sladit se zájmy člověka? To je hlavní téma nejnovějšího dílu podcastu DataBoutique, v němž zpovídáme odborníka na umělou inteligenci z Centra teoretických studií Univerzity Karlovy Jana Kulveita. V podcastu se mimo jiné dozvíte, proč dnes už nemůžeme jednoduše mluvit o programování pokynů pro AI a místo toho čím dál častěji hovoříme o tzv. „AI Alignment“ (sladění AI s lidmi). Kulveit také vysvětluje, proč sice …