fallback

Джини Ромети предлага въвеждане на отговорност за резултатите и данните в AI

Джини Ромети, бивш председател и директор на IBM

10:43 | 3 ноември 2023
Автор: Силвия Грозева

Дебатът от вчера се роди от напрежението по време на срещата на върха за изкуствения интелект. Къде да се постави фокусът в регулациите на риска? Говориха за екзистенциалните проблеми – може са след 1-2-3-4 години или по-далеч или пък вече са тук. Дезинформацията, въпросите за данните и киберсигурността, сегашните проблеми. Къде сте вие в този дебат?

Това е не само е важен дебат, но трябва да се действа сега по сегашните проблеми. Защото сега се поставят основите за бъдещето.

Ако съм научила нещо във всички тези години с изкуствения интелект, това е хората трябва му имат доверие. Трябва да се реши първо най-големият проблем сега около дезинформацията. Или за използването на изкуствения интелект за неща като финансовите решения или здравето на хората.

Фирмите трябва да носят отговорност за този изкуствен интелект и неговото използване.

Затова бих се насочила и към двата проблема, но мисля, че веднага трябва да се заемем едновременно и с плюсовете, и с минусите му.

Регулациите и правните усложнения, това е друга тема, която излезе около изкуствения интелект. Казахте, че компаниите трябва да се отнасят критично информацията, която влиза в изкуствения интелект. При вашия опит от компании, които са го използвали в ранен етап, какво трябва да разберем за типа данни, които трябва да се прилагат в обучението му?

Това е основния проблем. Да използвате данни, на които имате най-голямо доверие. Ако имате доверие в тези данни, ще се доверите и на резултата.

Тогава ще излязат победителите, които ще предложат приложение с голямо доверие в данните при обучението.

Правилните регулации са тези, които не са за самата технология, а за използването й в рискова ситуация и въвеждане на отговорност за това.

fallback
fallback