Искусственный интеллект научили создавать искусственный интеллект18 Октябрь 2017
Американская компания Google научила искусственный интеллект создавать искусственный интеллект, который превышает эффективность аналогичных систем, созданных людьми. Об этом сообщает издание Wired.
Проект AutoML ("автоматизированное машинное обучение") был запущен в мае 2017 года. Цель проекта – создание нейросетей с помощью искусственного интеллекта. В настоящее время созданные таким образом системы определяют показанные изображение в 82 процентах случаев.
В экспериментах с распознанием нескольких объектов на изображении обученный искусственным интеллектом алгоритм успешно выполнил задачу в 43 процентах случаев. Лучший результат в подобных экспериментах среди нейросетей, созданных человеком, – 39 процентов.
В Google заявляют, что проект AutoML призван помочь разработчикам "на первоначальном этапе настройки самообучающихся систем". Однако независимые эксперты, как отмечает Wired, считают, что Google пытается заменить разработчиков искусственным интеллектом.
https://www.svoboda.org/a/28802722.html===================================
ИИ лучше людей сдал экзамен на чтение и понимание текстовАвтор: Ольга Солодовникова
Дата : 16.01.2018 12:37
Китайские разработчики считают: настало время замещать человеческий труд в сфере обслуживания
В Стэнфордском университете проэкзаменовали искусственный интеллект китайской компании Alibaba Group Holding Ltd.
Информагентство Вloomberg сообщает, что нейронная сеть Alibaba впервые превзошла возможности людей в чтении и понимании текстов. Она предоставила точные ответы на более чем 100 000 вопросов, сформированных на основе 500 статей Википедии. Машина набрала 82,44 баллов, тогда как лучший результат человека — 82,304. Днем позже ИИ от Microsoft добился аналогичного успеха, набрав 82,650 баллов.
Интернет-гигант Alibaba совместно с корпорациями Tencent Holdings Ltd. и Baidu Inc. давно трудятся над ИИ, который сможет качественно обслуживать социальные сети, создавать таргетированную рекламу и оказывать услуги вплоть до помощи в вождении беспилотников. Правительство КНР поддерживает идею на национальном уровне, поставив задачу к 2030 году вывести страну в лидеры в сфере высоких технологий.
Имитируя процесс понимания человеческой речи, нейронная сеть научилась обрабатывать огромные объемы информации, и уже достигла показателей, подходящих для массового внедрения технологии. «Ответы на вопросы типа «что вызывает дождь» теперь можно получить с помощью ИИ с высокой точностью, — говорит Ло Си, главный научный сотрудник института Alibaba, — Технологию нужно постепенно внедрять в сферу обслуживания. ИИ легко может служить компетентным экскурсоводом в музеях или давать профессиональные онлайн-консультации пациентам на медицинских порталах, что беспрецедентным образом сокращает потребность в участии человека».
https://reactor.space/news/ii-luchshe-lyudej-sdal-ekzamen-na-chtenie-i-ponimanie-tekstov/===================================
За пределом понимания: можно ли доверять искусственному интеллекту?Марианн Ленис Репортер по вопросам технологий в бизнесе
15 июня 2018
Мы живем в уникальное время в истории человечества, когда искусственный интеллект затрагивает большой спектр вопросов в нашей жизни. Но что если мы на самом деле не знаем, как именно машины принимают решения? Что это значит для человека?
Представьте, что вам отказали в медицинской страховке. А когда вы спрашиваете почему, компания переводит стрелки на свой алгоритм оценки рисков.
Или вы ждете одобрения банка по ипотеке, но вам отказывают, а объяснить причину не могут.
Или представьте, если говорить о более серьезных вещах, что полиция станет задерживать людей по подозрению в подготовке преступления, основываясь лишь на предсказаниях алгоритма.
Искусственный интеллект (ИИ) сейчас внедряют во многие сферы нашей жизни, в том числе в медицинские исследования, в процесс определения диагнозов или приговоров. Алгоритмы машинного обучения управляют автономными автомобилями, обеспечивают национальные системы наблюдения, а также военные системы наводки.
Как говорится в недавнем докладе консалтинговой фирмы PwC, глобальная экономика вырастет на 15,7 трлн долл. к 2030 году благодаря одному лишь ИИ.
Но какой ценой? Алгоритмы глубокого обучения становятся настолько сложными, что даже их создатели не всегда знают, как именно они приходит к тому или иному решению.
Нейросети работают благодаря множеству соединенных между собой "нейронов", которые пропускают через себя огромные объемы информации и выделяют модели среди множества переменных, используя алгоритмы машинного обучения. И, самое главное, они адаптируются в ответ на то, что узнали.
Все это делает уже доступные нам сервисы лучше, начиная с более точных прогнозов погоды и заканчивая усовершенствованными методами определения стадий рака.
Однако Роди Дейвис, директор по вопросам политики и программ Фонда помощи благотворительным организациям (Charities Aid Foundation), считает, что когда такие системы используются в системах доступа, например, к коммунальным услугам или подсчетам голосов, это порождает трудности.
Дэвид Штерн, менеджер по количественным исследованиям в технологической компании G-Research, которая использует машинное обучение для того, чтобы предсказывать цены на финансовых рынках, предостерегает, что молниеносный прогресс в исследованиях ИИ в последние годы связан был прежде всего с так называемыми методами черного ящика.
"Процесс обучения в этом крайне популярном сейчас подходе определяет настройки миллионов внутренних параметров, которые взаимодействуют сложными способами и которые очень трудно переписать и объяснить".
Другой тренд в роботизации - это глубокое обучение с подкреплением.
В его случае разработчик просто определяет поведенческие цели системы, а она автоматически учится, непосредственно взаимодействуя в окружающей средой, объясняет Штерн.
"Это порождает систему, разобраться в которой становится еще труднее", - говорит он.
Специалисты пытаются разработать методы понимания и контроля этих алгоритмы. Например, Управление перспективных исследовательских проектов Министерства обороны США ведет проект Explainable AI ("Объяснимый ИИ").
А некоммерческая исследовательская компания OpenAI разрабатывает "путь к общему безопасному искусственному интеллекту".
Это звучит вполне разумно, но одно из преимуществ ИИ как раз в том, что он может делать то, чего не может человеческий мозг. И с этой точки зрения благодаря подобным проектам мы рискуем застопорить развитие ИИ.
Адриан Веллер, программный директор по искусственному интеллекту в Институте Алана Тьюринга, предполагает, что знание того, как именно работает ИИ, нужно только в случае, если он принимает критически важные решения. Другие соображения могут быть важнее прозрачности программы.
"Если бы мы могли быть уверены в том, что система работает надежно и безопасно и в ней исключена дискриминация! В некоторых случаях эти вопросы важнее, чем то, понимаем ли мы суть функционирования системы", - говорит он.
Что касается беспилотных машин или медицинских диагнозов: если автомобиль будет более безопасным и сможет спасать людям жизни, это будет гораздо важнее, чем то, как именно он работает, говорит Веллер.
"Говоря о медицинских диагнозах, если система точна в среднем в 95% случаев, это хорошая новость, - утверждает ученый. - Хотя я все равно хотел бы знать, насколько она точна по отношению лично ко мне, и ее прозрачность мне бы в этом помогла".
"Но если бы у нас был какой-то другой способ быть уверенными, что алгоритм действительно точен в моем случае, тогда я бы меньше беспокоиться о его интерпретируемости", - добавляет Веллер.
Но в случаях, когда ИИ выносит приговор и определяет то, сколько человеку сидеть в тюрьме, важно иметь представление о процессе принятия решений, замечает Веллер.
"Если алгоритм рекомендовал заточить меня на шесть лет, я бы хотел получить этому объяснение, понять, насколько приемлемому процессу следовал ИИ, и иметь возможность оспорить его решение, если я с ним не согласен", - замечает он.
"Я согласен с мнением, что мы должны требовать от компаний разъяснять действия алгоритма, особенно когда у нас есть подозрение, что за ним стоит человек", - говорит Веллер.
Без этих гарантий есть риск, что люди могут подвергнуться дискриминации, не зная почему, и окажутся на обочине.
Технологии и бизнесМногие даже не знают, что алгоритмы искусственного интеллекта стояли за решением, которое на них повлияло. И это противоречит закону, говорит Марк Дим, партнер юридической фирмы Cooley.
"Как вообще можно ожидать конкретного решения, основанного на машинном обучении, если вы не знаете точно, как его принял алгоритм из "черного ящика"? - говорит он.
Принятые Евросоюзом Общие правила защиты данных Евросоюза закрепили право знать, был ли автоматизированный процесс использован для принятия решения.
"Концепция автоматизированного принятия решений в Правилах заключается в том, что вы не должны иметь возможность принять решение, затрагивающее фундаментальные права субъекта данных, лишь на основании действия алгоритма", - объясняет Марк Дим.
У нас есть право на объяснение. Но что, если компании не могут давать таких объяснений? Это серая зона, которая должна быть протестирована в судах.
Будем ли мы счастливо работать вместе со сверхинтеллектуальными машинами и принимать полезные решения, не понимая стоящих на ними процессов?
Или же мы станем рабами автоматизации и заплатим за нее своими правами и человеческой свободой?
"Нам вполне комфортно сидеть в алюминиевой трубе со стенками толщиной 1 мм, рассекающей воздух на высоте 30 000 футов, толком не понимая того, как она работает и полагаясь лишь на статистику безопасности и правила полетов", - говорит Дэвид Штерн, имея в виду современный авиалайнер.
"Я уверен, что до тех пор, пока существует надзор и есть достаточные доказательства безопасности, мы будем спокойно сидеть в машине, управляемой машиной, или доверять компьютерному анализу состояния нашего здоровья", - заключает он.
https://www.bbc.com/russian/features-44499128==================================
Искусственный интеллект взял еще один рубеж. Теперь он может спорить с человеком19 июня 2018
Семь лет назад суперкомпьютер IBM победил игроков американской интеллектуральной телевикторины Jeopardy. А сейчас искусственный интеллект доказал на практике, что может участвовать в дебатах - распознавать речь человека, осмысливать ее и аргументированно отвечать.
IBM устроила в Сан-Франциско презентацию нового проекта - компьютера Debater, способного участвовать в дебатах. Машина слушает собеседника и спорит с ним.
При формировании ответов компьютер пользуется данными из базы миллионов документов - газетных статей и научных журналов. Дебаты ведутся без подготовки на случайные темы.
Судьи решили, что аргументы компьютера были более полными, в то время как у человека лучше получилось презентовать ответы.
Одним из недостатков машины были повторения одного и того же аргумента, но разными словами. Также компьютер иногда выдавал странно сформулированные фразы.
Правильные решенияОдним из оппонентов компьютера была Ноа Овадия - чемпион израильского турнира по дебатам 2016 года. Она начала работать с IBM несколько месяцев назад.
Овадия сказала Би-би-си, что обучение компьютера навыкам аргументации сыграет большую роль для принятия правильных решений, в том числе при голосовании на выборах.
Глава отдела исследований IBM Арвинд Кришна отмечает, что обученная навыкам аргументации машина не сможет принять решение за человека. Но такой компьютер позволит провести содержательную дискуссию, считает он.
Эксперты опасаются, что машины, имеющие доступ к большим объемам информации, при построении ответа могут использовать предвзятые аргументы.
В IBM при этом придерживаются мнения, что компьютер в любом случае будет менее предвзятым, чем любой человек.
Как построить аргумент
Обучение компьютеров искусству спора обсуждается в научном сообществе уже несколько лет.
Сейчас машины превосходят человека во многих вещах, например, в обработке данных, в умении просчитывать ходы в стратегичесикх играх.
Но компьютерам пока не под силу учитывать нюансы речевых оборотов, понимать намеки и шутить - все эти качества пока позволяют человеку выглядеть убедительнее в дебатах с машинами.
Ученые, которые занимаются этой проблемой, пытаются научить компьютеры оспаривать доказательства и искать альтернативные точки зрения. Для этого они исследуют труды по философии, риторике, праву.
Многие ученые считают, что в ближайшем будущем машины навряд ли смогут полностью заменить человека в принятии важных решений.
"Одно дело - искать информацию в интернете о том, как насилие в видеоиграх влияет на психическое здоровье детей, и совсем другое - создать систему, которая бы автоматически собирала аргументы "за" и "против" допущения подобного насилия", - писал в октябре 2017 года профессор Крис Рид из Университета Данди.
https://www.bbc.com/russian/features-44531977===================================
Бунт искусственного интеллекта вполне реален9 февраля 2019
Уже сейчас искусственный интеллект (ИИ) способен на многое - он играет в шахматы, управляет автомобилями и диагностирует заболевания. Всем известно о программе Google DeepMind, которая легко обыгрывает человека в го, об экспериментах компании Tesla с беспилотными автомобилями, о суперкомпьютере IBM под названием Watson.
Эти системы относятся к классу ограниченного искусственного интеллекта, который призван решать специальные задачи. Они довольно быстро совершенствуются и используются всё шире. Хотя их внедрение сталкивается с проблемами - например, беспилотные автомобили появятся на дорогах не так скоро, как мы думали еще недавно.
На подходе - системы ИИ общего типа, которые будут способны учиться, решать задачи, модифицировать свое поведение и саморазвиваться. Они смогут выполнять даже те задачи, которые выходят за рамки задуманного их проектировщиками.
Самое главное, что темп их развития может постоянно ускоряться - и в какой-то момент они могут стать умнее человека, породив супер-ИИ.
Пока что подобные системы ИИ не существуют в полном функциональном виде. Однако их компоненты постоянно разрабатываются и, по прогнозам, они начнут появляться уже в начале 2030-х гг.
Мало кто сомневается в том, что они будут созданы. Задачи, которые будут перед ними поставлены, также очевидны - лечение рака и дегенеративных заболеваний, борьба с изменениями климата, повышение эффективности сельского хозяйства, начало новой научно-технической революции.
Вопрос в том, сможет ли человечество контролировать эти машины. Главная опасность состоит в том, считает профессор MIT Макс Тегмарк, что такие системы смогут без вмешательства человека определять наиболее эффективные пути решения задач и даже создавать свои собственные цели, не учитывая при этом этических принципов, на которых построена человеческая цивилизация.
Примеры такого развития событий:
Система ИИ общего типа, перед которой поставлена задача предотвращения эпидемии ВИЧ, может решить убить всех носителей вируса;
Военный дрон, оснащенный такой системой ИИ, может прийти к выводу, что для надежной нейтрализации выбранной цели необходимо уничтожить всю деревню, где эта цель расположена;
Система ИИ, которой поручено найти способ решения проблемы изменения климата на Земле, может прийти к выводу, что единственным выходом является полное уничтожение человечества.
Многие катастрофические сценарии развития систем супер-ИИ приводят к исчезновению человека как вида. Кроме того, социологи опасаются и другого рода кризисов - например, вытеснение человека из сферы активного физического труда, дестабилизация государственных структур, введение мер по всеобщему наблюдению и контролю.
Уже сейчас перед разработчиками новых систем ИИ стоит неотложная задача создания новых методов контроля, которые смогут обеспечить безопасность таких систем в долгосрочном плане.
https://www.bbc.com/russian/features-47172119================================
Сговор роботов: сможет ли искусственный интеллект задирать цены в магазинах?Алексей Калмыков Би-би-си
23 февраля 2019
Искусственный интеллект стремительно проникает в повседневную жизнь: рассчитывает маршруты, переводит с иностранных языков, подбирает нам фильмы, книги и одежду. Самообучающиеся алгоритмы приводят к простым целям все более сложным путем, и в этом кроется угроза, опасаются чиновники и эксперты.
Что если эта простая цель - не облегчить жизнь человеку, а выжать из него максимум прибыли? И что если машины, которым продавец поставил такую цель, в процессе ее достижения вступят в сговор и начнут массово обсчитывать потребителей? Как отследить и пресечь это?
Роботы уже вовсю используются в торговле. Алгоритмы автоматически устанавливают цены, оценивают спрос и предложение, определяют скидки и рекомендации покупателям. Их эволюция чревата двумя серьезными проблемами.
"С антимонопольной точки зрения опасность заключается в том, что алгоритмы репрайсинга потенциально способны каждый по отдельности прийти к одному выводу: чтобы обеспечить максимальную прибыль, нужно избегать ценовых войн", - предупреждают три профессора экономики из Болонского университета.
"То есть, они могут вступить в картельный сговор, даже если перед ними не ставили такую задачу и даже если они не общались друг с другом. Это проблема", - говорится в их февральской публикации.
Алгоритмами заинтересовались те, кому общество делегировало защиту потребителей от монополий. До сих пор вся их практика была построена на работе с людьми и корпорациями. Роботы - совсем другая история.
"Алгоритмы сделали много полезного для защиты прав потребителей и развития конкуренции - они сократили издержки поставщиков, улучшили обслуживание и доступность товара. Однако мы должны разобраться, может ли использование алгоритмов нанести вред потребителям в дальнейшем, и если да, то когда и как", - обратилось к проблеме антимонопольное ведомство Великобритании (CMA).
Почему сейчас?Времена меняются. Цифровой след, который оставляют люди в интернет-магазинах, социальных сетях и браузерах буквально на глазах превращается в лавину информации и открывает роботам новые возможности для сложных стратегий ценообразования, включая персонифицированное.
Чем больше машина знает о нас, тем проще ей определить, какую максимальную цену мы готовы заплатить за платье, урок итальянского или поход в бассейн.
"90% всех цифровых данных в мире было создано в последние два года, - говорится в рабочей записке CMA, опубликованной минувшей осенью. - С развитием технологий больших данных (Big Data) бизнес все активнее покупает услуги анализа этой информации. Мировой оборот в этой сфере, как ожидается, достигнет 200 млрд долларов к 2020 году".
Алгоритмы давно использовались в торговле, но повсеместное проникновение машин в сферу потребления стало возможно только сейчас, и связано это не с развитием компьютеров и программ, а как раз со взрывным ростом объема, доступности и скорости сбора данных о потребителях, их привычках, доходах и поведении, полагает профессор Израильского технологического института Авигдор Гал.
Он в числе других представлял свои соображения к дискуссии в ОЭСР - клубе самых богатых стран мира. Антимонопольная комиссия этой организации занялась проблемой и признала, что современные методы защиты потребителей и конкуренции вряд ли будут достаточными для регулирования рынка в новую эру машин.
Однако и новые ограничения способны навредить прогрессу и затормозить технологическое развитие, поэтому если их и вводить, то осторожно и постепенно.
Как договариваются роботыЖизнь антимонопольным органам осложняет тот факт, что машины способны вступить в картельный сговор, даже не общаясь между собой.
Продавец ставит им цель, но путь к ней не указывает. Они сами ищут способ выполнить задачу, будь то продать новинку подороже или распродать запасы побыстрее. С учетом того, что машины давно обыгрывают людей в шахматы и го, путь к цели может оказаться самым изощренным.
Три профессора экономики из Болонского университета ставили опыты: запускали искусственный интеллект в классическую модель картельного сговора. Ученые меняли условия эксперимента, но роботы настырно учились только одному.
"Даже самые примитивные алгоритмы ценообразования методично оттачивают сложные стратегии сговора. И больше всего беспокоит то, что они не оставляют никаких следов. Они учатся договариваться методом проб и ошибок, не общаясь между собой, на новых для себя рынках и даже если им не ставили задачу создать картель", - пишут исследователи.
И это еще до того, как в матрице появляется еще пара неприятных осложнений. Первое - общая школа алгоритмов, второе - общая база данных о покупателях.
В первом случае алгоритмы, как в том эксперименте, обучаются в одном и том же месте, прежде чем вступить в игру. Многие мелкие продавцы не вкладываются в разработки, а покупают готовые решения у крупных игроков. Таким программам проще договориться, не разговаривая. И эта особенность машин уникальна: многократные эксперименты доказали неспособность людей создавать даже примитивные картели без общения между собой.
Во втором случае машины при анализе данных используют одну и ту же базу информации о потенциальных потребителях. А убийственная комбинация этих двух факторов - это когда и алгоритм, и информация принадлежат очень крупному сборщику личных данных, который одновременно еще и крупнейший продавец товаров или услуг.
Тогда машины в теории смогут определить покупательную способность каждого и извлечь максимальную выгоду через персонифицированное ценообразование.
Возможно, они уже это делают?
Восстание машинНет, говорят регуляторы. Они давно ищут, но пока не могут найти признаков того, что искусственный интеллект подрывает конкуренцию и задирает цены.
В прошлом году Еврокомиссия провела исследование в восьми странах ЕС и не нашла ничего. Годом ранее к такому же выводу пришло британское антимонопольное ведомство.
А до этого два года подряд австрийцы проводили свой эксперимент. В 2016 году они отслеживали цены 36 различных товаров и услуг (от обуви до гостиниц и перелетов) на 28 девайсах (компьютерах, телефонах и планшетах) в течение пяти дней в девяти областных центрах Австрии и немецком Дюссельдорфе. И не нашли отклонений.
Через год они повторили эксперимент на трех десятках позициях крупных онлайн-магазинов (Amazon, Lufthansa, AirBerlin, Austrian Airline, Opodo, booking.com и Heine). На этот раз цены немного отличались, но никакой закономерности вывести не удалось.
Нет примеров пока и в судебной практике - за редким исключением. В 2015 году американский регулятор выиграл антимонопольное разбирательство, доказав преднамеренное использование компьютерной программы для установления единой цены на постеры в разных онлайн-магазинах. Продавцу пришлось заплатить штраф в 20 тысяч долларов.
И в ближайшее время ждать восстания машин не приходится, полагает британский антимонопольный орган, поскольку продавцы столкнутся с целым рядом сложностей - от прозрачности ценообразования до права на перепродажу.
"Эти сложности преодолимы, по крайней мере в теории, если компании задействуют достаточно продвинутые алгоритмы и базы данных, а также будут готовы целенаправленно договариваться и делиться информацией. Пойдут ли они на это - эмпирический вопрос о качестве и доступности данных и алгоритмов", - пришли к выводу борцы с монополиями.
Есть и еще одна важная преграда на пути манипуляторов - сами потребители. Если люди начнут подозревать, что их дурят сложные алгоритмы, пострадают продавцы.
"Если потребители теряют веру в то, что им предлагают хорошую и справедливую цену, они уходят с такого рынка или резко сворачивают свою активность на нем. Это проблема для индивидуального ценообразования, а подозрения, что алгоритмы облегчают ценовой сговор, способны еще больше подорвать потребительское доверие", - предупредило британское антимонопольное ведомство.
https://www.bbc.com/russian/features-47286039=================================
Почему вы неправильно представляете себе робоапокалипсис3 ноября 2019
Страх перед искусственным интеллектом давно укоренился в массовой культуре. Лучшие умы человечества, от Стивена Хокинга до Илона Маска, говорили об экзистенциальной угрозе цифрового разума человечеству.
Профессор Калифорнийского университета в Беркли Стюарт Рассел тоже о ней говорит, но в его видении будущего нет злых роботов, восстающих против господства людей.
По версии Рассела, машины в какой-то момент просто станут настолько эффективными, что уничтожат нас, выполняя задания, которые мы же им и дали.
Рассел - эксперт по машинному обучению и автор книги "Совместимость с человеком: ИИ и проблема контроля" ( "Human Compatible: AI and the Problem of Control").
"Традиционный голливудский сюжет: машины спонтанным образом обретут сознание, а потом решат, что ненавидят людей и захотят всех убить", - замечает профессор Рассел.
Но это, по его мнению, неправильное видение робоапокалипсиса, ведь у машин нет человеческих эмоций.
"Нам нужно беспокоиться не о самосознании злых машин, а о компетентности машин, которые выполняют поставленные нами задачи", - убежден ученый.
"Слишком компетентны"В интервью программе BBC Today профессор Рассел описал гипотетическую ситуацию, в которой существованию человечества может угрожать искусственный интеллект.
Представьте, что существует сверхмощный искусственный интеллект, который может контролировать климат на планете. Ему ставят задачу вернуть уровни углекислого газа в атмосфере на доиндустриальный уровень.
"Система сочтет, что самый эффективный способ это сделать - уничтожить людей. Это же они производят углекислый газ", - говорит профессор.
"Это можно обойти, например, поставив ей условие не избавляться от людей. Что тогда сделает система? Она будет делать так, чтобы рождалось все меньше и меньше детей, пока люди не исчезнут вовсе".
Это пример того, к чему может привести работа искусственного интеллекта по непродуманным инструкциям человека.
СверхинтеллектСуществующие сегодня системы ИИ имеют узко направленное применение. Они созданы для решения четко обозначенных проблем в какой-то одной сфере, говорят ученые Центра изучения экзистенциальных рисков Кембриджского университета.
Триумфальным моментом для этой философии ИИ была победа компьютера "Дип Блю" над действующим чемпионом мира по шахматам Гарри Каспаровым в 1997 году.
Но "Дип Блю" был создан исключительно для игры в шахматы. В шашки он проиграл бы и пятикласснику.
Последние достижения в сфере искусственного интеллекта принесли нам совсем другие программы.
Например, программа AlphaGo Zero обучилась игре в го самостоятельно, не используя данные о прошлых играх, сыгранных людьми, и всего за три дня игры с собой вышла на недостижимый для обычного человека уровень.
При создании AlphaGo Zero применялись алгоритмы глубинного обучения. Это значит, что для разработки программы потребовалось сравнительно мало человеческой работы.
При этом AlphaGo Zero умеет хорошо играть и в шахматы, и в сёги.
Напомним, что программа полностью самообучаема. У кого-то это может вызвать опасения.
"По мере того, как ИИ становится мощнее и универсальней, появляется риск, что он станет сверхразумным, то есть превзойдет человека во многих или во всех сферах", - говорят в Центре изучения экзистенциальных рисков.
"Мы не знаем, что хотим"Профессор Рассел считает, что просто ставить перед ИИ предельно конкретные задачи - это не выход из положения, потому что люди сами не в состоянии их достаточно хорошо формулировать.
"Мы не понимаем, что нам что-то не нравится, пока это не происходит", - говорит он.
"Нам нужно изменить сам базовый подход к созданию ИИ-систем", - добавляет профессор. Он считает, что давать роботам задание, которое они затем выполняют - вообще в корне не верно.
"Система должна понимать, что цель ей непонятна. - говорит он. - Когда создаются такие системы, они действительно зависят от человека. Они начинают спрашивать разрешения перед тем, как что-то сделать, потому что не уверены, хотите ли вы этого".
И что самое важное, говорит профессор, они не будут сопротивляться, если вы решите их выключить, потому что они созданы таким образом, чтобы не делать того, что вам не нравится.
Лампа АладдинаИИ сегодня создают так, как будто это джин из лампы, говорит профессор Рассел. Вы трете лампу и говорите: "Хочу, чтобы произошло то-то и то-то".
И если искусственный интеллект достаточно мощный, то он сделает именно то, что вы попросите.
"Проблема с джином в том, что третье желание всегда - отменить два первых, потому что человек неправильно их сформулировал".
"Машина, которая преследует неверную цель, становится де факто врагом человечества, и этот враг гораздо сильнее нас", - заключает ученый.
https://www.bbc.com/russian/features-50232818