Още

    Пет технологични експерти споделят своите страхове и притеснения относно изкуствения интелект

    Експерти твърдят, че универсалният изкуствен интелект ще направи модерния свят по-привлекателно място за живеене. Като цяло той ще подобри здравните грижи за нас и ще ни освободи от ежедневните рутинни задачи, с които се занимаваме през по-голямата част от живота си. Тези аспекти бяха основната тема на разговор между инженери, инвеститори, изследователи и политици, които се събраха на съвместна конференция за развитието на изкуствения интелект. Сред тях имаше и такива, които виждат в него не само полза, но и потенциална заплаха. Някои изразиха своите опасения относно увеличаването на безработицата, тъй като с появата на функционален изкуствен интелект много хора ще загубят работата си, а други намекнаха за възможността за бунт на машините, ако всичко се остави на самотек. Но къде точно трябва да поставим границата между безпочвената тревога и истинската загриженост за нашето бъдеще? Ето мненията на петима експерти в областта на изкуствения интелект:

    Кенет Стенли, професор в университета в Централна Флорида, старши технически директор и изследовател в лабораторията за изкуствен интелект в Убер: „Мисля, че най-очевидните притеснения са, че изкуствения интелект ще бъде използван, за да навреди на човек. И всъщност има много сфери, където това може да се случи. Трябва да положим всички усилия, за да гарантираме, че тази лоша страна в крайна сметка няма да се прояви. Много е трудно да се намери правилното решение на въпроса как да се запази отговорността за действията, предприети за създаването на изкуствен интелект. Този въпрос е многостранен и изисква разглеждане не само от научна гледна точка. С други думи, участието на цялото общество, а не само на научната общност, е необходимо при търсенето на неговото решение. Как да се разработи изкуствения интелект? Всяка технология може да се използва, както за добро, така и за зло. Изкуственият интелект в това отношение е пример. Хората винаги се мъчат да предотвратят предоставянето на нови технологии в неподходящи ръце и да не се използват за лоши цели. Вярвам, че и по отношение на изкуствения интелект ще можем да се справим с тази задача. Необходимо е правилното поставяне на акцентите и намирането на баланс в използването на тази технология. Това може да ни предупреди за толкова много потенциални проблеми. По-конкретни решения не мога да предложа. Единственото, което бих искал да кажа е, че трябва да разберем и да приемем отговорността за въздействието, което изкуственият интелект може да има върху цялото общество.“

    Ираклий Беридзе, ръководител на Центъра за изкуствен интелект и роботика в Института за изследване на престъпността и правосъдието на Организация на обединените нации: „Мисля, че най-опасното нещо около изкуствения интелект е свързано с темпа на развитие – колко бързо ще бъде създаден и колко бързо можем да се адаптираме към него. Ако този баланс бъде нарушен, може да се сблъскаме с проблеми. От моя гледна точка основната опасност се крие във факта, че от изкуствения интелект ще могат да се възползват престъпни структури и големи терористични организации, насочени към дестабилизиране на световния ред. Кибертероризмът, ракетите и бомбите вече са реалност. В бъдеще може да се добавят роботи, оборудвани със системи на изкуствения интелект. Това може да е сериозен проблем.

    Друг голям риск от масово въвеждане на изкуствения интелект може да бъде свързан с вероятната загуба на работни места. Ако тези загуби са масови и нямаме подходящо решение, това ще бъде много сериозен проблем. Но това е само отрицателната страна на медала на тази технология. Убеден съм, че изкуственият интелект не е оръжие. Той е по-скоро инструмент. Много мощен инструмент. И може да се използва както за добри, така и за лоши цели. Нашата задача е да разберем и сведем до минимум рисковете, свързани с използването му, както и да се възползваме от него за добри цели. Трябва да се съсредоточим върху увеличаването на положителните ползи от тази технология.“

    Джон Лангфорд, главен учен на корпорация „Microsoft”: „Мисля, че основната опасност ще бъдат дроновете. Автоматизираните дронове могат да бъдат истински проблем. Настоящото ниво на изчислителна мощ на автономните оръжия не е достатъчно високо, за да изпълни някои извънредни задачи. Мога обаче да си представя как след 5-10 години на борда на автономните оръжия ще се извършват изчисления на ниво суперкомпютри. Дронове се използват днес в битки, но те все още се контролират от човека. След известно време човешкият оператор вече няма да е необходим. Машините ще бъдат доста ефективни за самостоятелното изпълнение на задачите. Това ме тревожи.“

    Хава Зигелман, програмен мениджър на микросистемата „DARPA”: „Всяка технология може да бъде използвана, за да навреди. Всичко зависи в чии ръце попада тя. Не мисля, че има лоши технологии, мисля, че има лоши хора. Всичко се свежда до това кой има достъп до тези технологии и как точно ги използва.“

    Томас Миколов, научен сътрудник на „Facebook AI”: „Ако нещо привлича интерес и инвестиции, винаги има хора, които злоупотребяват с него. Аз съм разтревожен, че някои хора се опитват да продадат изкуствения интелект и колоритно описват какви проблеми може да разреши той. Въпреки че всъщност той не е създаден. Всички тези фирми-еднодневки обещават планини от злато и дават примери за предполагаемата работа на изкуствения интелект, въпреки че всъщност се показват само модерни или оптимизирани технологии на настоящето. В повечето случаи малко хора мислят за подобряването или оптимизирането на тези технологии. Да вземем например чат-ботовете, които ни ги представят за изкуствен интелект. И така, след като сте прекарали десетки хиляди часове, оптимизиращи изпълнението на една задача, тези началници идват при нас и казват, че са постигнали нещо, което другите не могат да постигнат. Но това е нелепо. Честно казано, по-голямата част от предполагаемите технологични пробивки на такива организации, чиито имена не бих искал да назова, не бяха интересни за никого по-рано, не защото никой друг не можеше да ги направи, а просто защото тези технологии не генерират никакви финансови приходи. Те са напълно безполезни. Това е близо до шарлатанството. Особено в случаите, когато изкуствения интелект се счита за инструмент за максимално увеличаване на процеса на решаване на една единствена задача. Той не може да бъде мащабиран за нищо друго освен за най-простите задачи. В същото време всеки, който поне по някакъв начин започне да критикува подобни системи, веднага се сблъсква с проблеми, които ще се противопоставят на сладките изявления на такива компании.“

    Още публикации

    Коментари

    ВАШИЯТ КОМЕНТАР

    Моля, въведете коментар!
    Моля, въведете името си тук

    Мобилно приложение за Android и iOS

    Най-нови