Съобщава се, че Google предупреждава служителите си да внимават
Съобщава се, че Google предупреждава служителите си да внимават, когато използват чатботове с изкуствен интелект (AI).
Това предупреждение – според доклад на Reuters – се отнася до Bard, AI чатбота, който Google обяви по-рано тази година .
Според доклада компанията е казала на служителите си да не въвеждат поверителни материали на Google в чат ботове с изкуствен интелект и като същевременно е предупредила своите инженери да избягват директното използване на компютърен код, който чат ботовете могат да генерират.
Тази информация дойде от източници, запознати с въпроса, но по-късно била потвърдена от компанията, която казва на Reuters, че Bard може да прави нежелани кодови предложения, но въпреки това помага на програмистите. Компанията добави, че иска да бъде откровена за ограниченията на технологията.
Google дебютира Bard по-рано тази година, част от поредица от стартирания на продукти, фокусирани върху AI, които също включват въвеждането на инструмент за виртуално пробване, предназначен да даде на онлайн купувачите същите уверения, които получават, когато търсят дрехи в магазините и ги пробват.
В същото време компанията настоява, че подхожда предпазливо към AI, тъй като го интегрира във водещата си функция за търсене.
Но проблема идва от въпросите на потребителите и отговорите, които не са много за доверие.
Въпроса е : Как ще може Google безопасно да интегрира Bard ?