fallback

Всички компании, хора и страни трябва да разберат последиците от AI

Кай-Фу Лий, бивш вицепрезидент на Google, част 10

21:00 | 13 декември 2021
Автор: Кирил Петков

Всички компании, хора и страни трябва да разберат последиците от изкуствения интелект и нужните мерки, които трябва да вземат. Самостоятелните оръжия са най-очевидното приложение, което се нуждае от регулации, защото са невероятно опасни.

С хиляда долара можете да построите личен робот-убиец, без особени последици.

Представете си този потенциал в ръцете на терористи.

Това е първата сфера, в която трябва да се вземат мерки.

Трябва да следим и други опасности освен изкуствения интелект и квантовите компютри.

Това не е единствената нова технология.

Има още около половин дузина подобни технологии, които биха могли да породят катастрофи и да застрашат цялото човечество.

Вие сте пионер в сферата си. Какво бихте посъветвали своето 20-годишно аз, ако можехте?

Ако можех, бих си казал да поемам повече рискове.

Да последвам това, което обичам, а не това, което трябва да направя.

Нещата се изменят непрестанно.

Единствената константа е самата промяна.

Бих си казал да съм гъвкав, да съм смел.

Да поема към нещо, на където искам да посветя живота си и да не се тревожа за рисковете.

Колкото сте по-млади, толкова по-малко рискувате и толкова повече рискове би трябвало да поемате, за да могат действията ви да променят света.

fallback
fallback