Убьет ли мы всех нас все? – Хокинг, а также предупреждение AI Musk

Мы все видели кинофильмы, где машины вступают во владение. Terminator, The Matrix, 2001, есть даже кинофильм 1998 года, традиционный «Дом мечты», где мудрый дом идет мошенничеством с (непреднамеренно) юмористическими последствиями.

Но программы все мы понимаем, что ИИ действительно здесь, чтобы помочь человечеству. Поскольку наши машины двадцать первого века обнаруживают системы обнаружения всех этих данных от наших датчиков IoT, они скоро дадут нам ответы, а также действия на нашу следующую мысль еще до того, как это произойдет.

Машины, захватывающие все, – это чистая фантазия. Верно?

В течение последних нескольких месяцев два выдающихся, а также чрезвычайно уважаемого парня высказались о проспективной опасности ИИ на человеческую расу.

Стивен Хокинг сказал BBC:

«Содействие полному искусственному интеллекту может означать конец человеческой расы… люди, которые ограничены вялой биологической эволюцией, не могли конкурировать, а также будут заменены».

Пока Элон Маск предупредил:

«Я считаю, что мы должны быть чрезвычайно осторожны в отношении искусственного интеллекта. Если бы мне пришлось предположить, какая наша величайшая экзистенциальная опасность, это, скорее всего, это. Таким образом, мы требуем быть чрезвычайно осторожными ».

Когда вы смотрите на начинающих ужасающих военных роботов ужасающих военных роботов, неожиданное распространение беспилотников, а также препятствия для самостоятельного вождения автомобилей и революции грузовиков, это, возможно, уже не значительное участие Больше не на вершине пищевой цепи.

Как Хокинг, так и Маск подписали это открытое письмо, чтобы подчеркнуть понимание их веры в то, что влияние на общество от ИИ, скорее всего, увеличит, а также с требованием, чтобы он служил человеку, а не на машинах.

Так пора ввести нормативный надзор за системами ИИ, чтобы обеспечить нас всех? Может ли Skynet действительно быть вещью, или вы просто рады, что ваши свет сразу же появляется, когда вы вернетесь домой? Позвольте нам понять, во что вы верите в комментарии ниже.

Больше чтения: приоритеты исследований как для надежного, так и полезного искусственного интеллекта

Поделись этим:
Facebook
Твиттер
Reddit
LinkedIn
Pinterest
Эл. адрес
Более

WhatsApp
Распечатать

Скайп
Tumblr

Телеграмма
Карман

Leave a Reply

Your email address will not be published. Required fields are marked *