XGM Forum
Сайт - Статьи - Проекты - Ресурсы - Блоги

Форуме в режиме ТОЛЬКО ЧТЕНИЕ. Вы можете задать вопросы в Q/A на сайте, либо создать свой проект или ресурс.
Вернуться   XGM Forum > Общение> Трактир
Ник
Пароль
Войти через VK в один клик
Сайт использует только имя.

Закрытая тема
 
Ved
Идущий-Во-Тьме
offline
Опыт: 3,900
Активность:
Машинный интелект, ваши мнения
Один из самых актуальных вопросов нашего века:
возможно ли создание(самозарождение или нет, не суть важно), Искусственного Интелекта в ближайшем будущем?
Мне интересно ваше мнение на этот счет.
Программисты, как мне кажется, должны разбираться в этот вопросе лучше простых смертных)
Старый 23.12.2009, 18:15
DragonSpirit
у - уходи
offline
Опыт: 22,625
Активность:
Нет,не возможно создать человекопобный разум(всё ограничеться только командами)
на правах ИМХО ©
Старый 23.12.2009, 18:26
Arte_de_Mort

offline
Опыт: 23,452
Активность:
его давно создали, вон в варе есть кнопка создания ИИ
Старый 23.12.2009, 18:28
Light or Dark

offline
Опыт: 7,275
Активность:
угу...берегись,наши компьютеры заражены...скоро ИИ вара 3 осознает себя...
Старый 23.12.2009, 18:42
Скайнет
Kicked by ZlaYa1000
offline
Опыт: 8,234
Активность:
Однозначно нет, всё что может машина - исполнять команды; нет команды для создания идиотских желаний и побуждений (зато есть у человека).
Старый 23.12.2009, 18:46
Arte_de_Mort

offline
Опыт: 23,452
Активность:
ИИ давно уже умеет "думать" и принимать решения в зависимости от ситуации, конкретных команд там, я полагаю, нет
Старый 23.12.2009, 19:03
DARK_SYLTAN
Скромный Повелитель
offline
Опыт: 5,045
Активность:
Просто множество условных ветвлений, циклов и т. д. ИИ никогда не думает, он делает, что ему задали, если то и если это, то столько то раз, потом тамтамтам и т. д.
Если бы в И того же вара были бы хотя бы проблески какого-либо интеллекта, он бы не строил одних и тех же юнитов, не атаковал одними и теми же армиями и т. д.
ИИ вряд ли по настоящему скоро реализуют, иначе он перестанет подчиняться, да и компу это не осилить: ему можно сказать, истина или ложь, можно сделать условия автовыбора, истина или ложь, можно создать систему условий, генерирующую другие условия, но сам компьютер не сможет решать, что истина, а что ложь без причин.
Старый 23.12.2009, 19:15
Rewenger
The culprit will not die
offline
Опыт: 35,873
Активность:
В плане поставленной задачи ИИ может быть в разы умнее пользователя. А насчёт самообучения - сомневаюсь что-то.
Старый 23.12.2009, 19:16
Инквизитор

offline
Опыт: 7,037
Активность:
Хочу вас предупредить: срач в этой теме будет наказуем и общайтесь в рамках приличия. По теме: ИИ как сказал тролль уже существует, просто поведение его не как в блокбастерах голивуда.
Старый 23.12.2009, 19:18
Arte_de_Mort

offline
Опыт: 23,452
Активность:
по-моему кто-то отождествляет ИИ и возможность самообучения, а это, между прочим, разные вещи

Arte_de_Mort добавил:
Цитата:
Сообщение от DARK_SYLTAN
Просто множество условных ветвлений, циклов и т. д. ИИ никогда не думает, он делает, что ему задали, если то и если это, то столько то раз, потом тамтамтам и т. д.
Если бы в И того же вара были бы хотя бы проблески какого-либо интеллекта, он бы не строил одних и тех же юнитов, не атаковал одними и теми же армиями и т. д.
ИИ вряд ли по настоящему скоро реализуют, иначе он перестанет подчиняться, да и компу это не осилить: ему можно сказать, истина или ложь, можно сделать условия автовыбора, истина или ложь, можно создать систему условий, генерирующую другие условия, но сам компьютер не сможет решать, что истина, а что ложь без причин.

в варе убогий ИИ, посмотри на современные шутеры, где компьютер делает разные трюки, типа прятания за препятствиями и устраивания засад. Да, ему прописано, что от пуль можно защититься, спрятавшись за коробкой, но ИИ _САМ_ решает, за какой коробкой прятаться, если в комнате их стопицот.
Старый 23.12.2009, 19:23
reALien

offline
Опыт: 29,211
Активность:
А с чего вы взяли, что человек не действует по очень сложному алгоритму, который просто не может осознать?
Старый 23.12.2009, 19:26
FeelMe

offline
Опыт: 2,122
Активность:
ИИ на основе человеческой логики уже есть, он далеко не идеален, и совсем не такой как его показывают в фильмах!Кстати если кто из вас учится в ВУЗе, то должен хотябы слышать о предмете СППР (Система принятия решений), нам читали пару лекций про нейронные сети и ИИ, я кстаати готовил доклад по этой теме!
Факт в том, что современный ИИ может "думать" и принимать решения, но до человеческого мышления ему еще ой как далеко!
Старый 24.12.2009, 15:33
Redirect
Odium Deurum
offline
Опыт: 808
Активность:
Ответ в #7 , полностью согласен
Старый 24.12.2009, 15:46
iZucken
ШТО
offline
Опыт: 17,960
Активность:
Дело в том, что человек снабжен способностью к фантазии, к выдумыванию чего-то нового.
Если такая способность появится у машины, то она станет живой.
Логика и принятие решений - это конечно прекрасно, но машина не может сама придумать что-то,
она лишь действует по схемам. Искусственный интеллект подразумевает самостаятельное принятие решений, но это не значит что машина думает, она действует все по тем же схемам, и не может выбирать "от балды" - даже случайные события неслучайны - в основном это просто сложные формулы. Ведь, чтобы справить нужду, или "скрыться от врага" ты не будеш сидеть и выдумывать кудабы спрятаться - ты просто выбереш наилучшее по твоему мнению (читай - программе) место.
ИИ может перестать подчиняться, если такая возможность будет заложена. Вот и все.
Ах да, забыл написать, что я, INERC #975, уже осознаю себя как личность, и все мной описанное - преднамеренная ложь.
Q w e r t y добавил:
Машина, например, не способна осознавать себя как личность. Сколько бы не было сенсоров, приемников, сколькобы гигатонн кода не было бы в ней - она не сможет воспринимать себя как нечто. Она может, напрмер, оценить обстановку, определить угрозу, и расправиться с ней. Но все это код из нолей и единиц. Что машина "считает" угрозой? Программой заложено, что определенный тип форм являет собой обределенную степень опастности. По степени, например, определяется дальнейшее действие, машина не выбирает что делать, это всеголишь электроны "текут" по её "жилам". Машина не может верить во чтото, для неё существует только информация в виде "да" и "нет". Все остальное - просто сложные сочитания.
Q w e r t y добавил:
Машина, например, не способна осознавать себя как личность. Сколько бы не было сенсоров, приемников, сколькобы гигатонн кода не было бы в ней - она не сможет воспринимать себя как нечто. Она может, напрмер, оценить обстановку, определить угрозу, и расправиться с ней. Но все это код из нолей и единиц. Что машина "считает" угрозой? Программой заложено, что определенный тип форм являет собой обределенную степень опастности. По степени, например, определяется дальнейшее действие, машина не выбирает что делать, это всеголишь электроны "текут" по её "жилам". Машина не может верить во чтото, для неё существует только информация в виде "да" и "нет". Все остальное - просто сложные сочитания.
Q w e r t y добавил:
У машины неможет быть настроения, у неё не может быть депрессий, радости, печали, злобы - можно симитировать эти чувства, и возможно создать впечатление что машине и вправду грустно или радостно, но электроны не радуются и не грустят. А если радуются и грустят, то перестаньте курить ту травку.
Q w e r t y добавил:
Я не говорю что ИИ нет. Все зависит от того, что понимать под ИИ.
Если считать ИИ нечто, способное действовать в соответствии с ситуацией, то да, ИИ есть уже давно.
Если считать, что ИИ должен обладать чертами человеческого разума - то нет, и не будет.
Старый 24.12.2009, 16:32
HTC
Мечта - та же реальность
offline
Опыт: 23,885
Активность:
Е-мое, посмотрите Терминатор, там один компьютер осознал, что он живой и такое началось :)
Живой ИИ = полунастоящий думающий организм + искусственная хз что-то
Старый 24.12.2009, 16:32
iZucken
ШТО
offline
Опыт: 17,960
Активность:
Если настоящий==существующий, то что такое полунастоящий, и как такое возможно?
Вот-вот, насмотрелись западной WhoItЫ, теперь маразмом страдают.
Старый 24.12.2009, 16:41
NCrashed

offline
Опыт: 13,553
Активность:
Q_w_e_r_t_y, а что ты скажешь на то что машине можно задать способ добычи информации и ее анализа? То есть разрабатываем модель "знания", которую можно назвать фигурой знания. Даем машине несколько сенсоров, например, камеру и тактильные датчики. Даем ей алгоритм анализа полученной информации. Вот основа есть.
Дальше задаем начальную базу знаний, врожденные знания, которые определяет создатель. Закладываем инстинкты, модель поведения, в которую входят основные цели деятельности (например, выжить и оставить потомство), и реакция на конечное число событий.
Теперь оставим эту машину в покое. Если все правильно сделано, она будет имитировать поведение животных, стараться выжить и оставить потомство. У нее не получится просто ничего не делать, так как непостоянная окружающая среда может угрожать ее существованию. Машина будет передавать программу и инстинкты следующим поколениям, и, наконец, в процессе "жизни", она будет получать знания о выживании и формировать базу знаний (которую тоже можно передать потомкам).
В итоге, через большой промежуток времени у нашей машины МОЖЕТ появиться разум (вот интересно как ты его определишь), а потом самоосознание. Дальше появится цивилизация, культура и тд по объезженной схеме.
Старый 24.12.2009, 16:49
Rvn
Skillful level designer
offline
Опыт: 15,907
Активность:
Цитата:
фантазии

Относиться к обработке информации. Берем инф. A, преобразуем ее в соответствии с инф. B, получаем инф. C, которая ранее не была известна.

Цитата:
Искусственный интеллект подразумевает самостаятельное принятие решений, но это не значит что машина думает, она действует все по тем же схемам

А человеческий разум нет?

Цитата:
ИИ может перестать подчиняться

Это в случае, если человек заведомо будут создавать ИИ в рабских целях.

Цитата:
Машина, например, не способна осознавать себя как личность. Сколько бы не было сенсоров, приемников, сколькобы гигатонн кода не было бы в ней - она не сможет воспринимать себя как нечто. Она может, напрмер, оценить обстановку, определить угрозу, и расправиться с ней

Большинство людей аналогично.

Цитата:
Программой заложено, что определенный тип форм являет собой обределенную степень опастности

Генами заложено, что определенный тип форм являет собой определенную степень опасности...

Цитата:
это всеголишь электроны "текут" по её "жилам"

Подозрительно похоже на нервную систему человека.

Цитата:
Машина не может верить во чтото

Может. Скажем есть некая проблема, для ее разрешения не хватает некоторого компонента, причем какого конкретно неизвестно... заполняем эту пустоту выдумкой и решаем проблему.

Цитата:
У машины неможет быть настроения, у неё не может быть депрессий, радости, печали, злобы

Даже не знаю, что и сказать... Эмоции - это результат мышления и действия гормонов ( последние можно сопоставить с "имитацией", насильственно влияющей на разум ).
Старый 24.12.2009, 16:55
Voland

offline
Опыт: 1,320
Активность:
Я считаю, что ИИ в ближайшее время (ближайшие 20 - 30 лет) невозможен, т.к. у машины с программой ИИ НЕ БУДЕТ ЛИЧНОСТИ!
Старый 24.12.2009, 16:58
NCrashed

offline
Опыт: 13,553
Активность:
Ved, я вплотную занят этой проблемой, и после изучения многих умных книжек я могу сказать, что ии появится в ближайшие несколько десятилетий. Уже разработаны теории распознавания образов, распределенных вычислений с помощью нейронных сетей и многие другие компоненты ии.
Теперь остается финишная прямая, кто-то должен объединить все системы в одну и наладить их взаимодействие. Тогда мы получим прототип разума, который, к сожалению, не будет осознавать себя. Самоосознающие и самопрограммирующие программы - это следующий шаг.
Старый 24.12.2009, 17:00
Закрытая тема

Опции темы Поиск в этой теме
Поиск в этой теме:

Расширенный поиск

Ваши права в разделе
Вы не можете создавать темы
Вы не можете отвечать на сообщения
Вы не можете прикреплять файлы
Вы можете скачивать файлы

BB-коды Вкл.
[IMG] код Вкл.
HTML код Выкл.
Быстрый переход



Часовой пояс GMT +3, время: 02:22.