Microsoft се опасява от намеса в изборите на AI

Ед Лъдлоу, Bloomberg

11:30 | 5 май 2023
Обновен: 14:21 | 5 май 2023
Преводач: Силвия Грозева

Ед, какво мислите за това?

Това не е нещо ново, но Microsoft казва, че има сериозни примери като намеса в изборите, когато инструментите на генеративния изкуствен интелект, особено тези, които създават текстове или изображения създават съдържание. Това съдържание може да се използва на платформи, използвани като пример за намеса в изборите.

Шварц говори за това. В панела каза, че всички много се тревожат изкуственият интелект да не измести хората в работата. Специално подчерта, самият той не се страхува от това. И каза, че би посъветвал да се тревожим какво прави изкуственият интелект, ако попадне в ръцете на лошите.

От разработката на темата в Bloomberg знаете, че това може да е всеки – от хакери, които искат откуп до играчи на държавно ниво.

В каква степен говори от своя гледна точка? Той представлява доста голям бизнес в киберсигурността.

Така е. Правилно. Едва в последната седмица на март Microsoft обяви как ще интегрира GPT4, технологията на Open AI в киберзащитата си. Това е бизнес за 25 млрд долара на година. Те имат Microsoft Security Copilot /майкрософт секюрити копайлът/.

Ползата от изкуствения интелект е в това, че можете да правите анализи на данни много по-бързо. Можете да обработите големи обеми данни по-бързо и по-бързо да дадете отговор.

Миналата седмица в Сан Франциско на конференцията на RSA чух мнозина да казват, че тези същите инструменти – ChatGPT например, са безплатни в момента и на разположение на всички.

С напредъка в изкуствения интелект или квантовия компютър и би трябвало да кажем, че ние ги използваме с добри цели, но са на разположение и на хора с лоши цели.

Има ли връзка с факта, че Вашингтон не иска да регулира по-бързо иновациите и технологиите? Уверени ли сме, че този път ще бъде по-различно?

Интересна връзка с регулациите. Да. Те искат регулации. Но той каза „само когато опасността стане реална“. Това беше интересно. Практически каза, че едва като стане нещо лошо, тогава би трябвало да направим регулации. Това би било със закъснение.

Освен това направи разлика между регулация на инструментите и използването на генеративния изкуствен интелект и обучението на основата или моделите, големите езикови модели.

Каза, че ако регулираме обучението на изкуствения интелект, това може да се окаже трудно, защото обучението изисква вкарване на много различни данни и много време. Много е интензивно като човешки труд. И иска много време.

Така че направи тази разлика – регулация на използването на инструмента, а не развитието на технологията.