Ved
Идущий-Во-Тьме
offline
Опыт:
3,900Активность: |
Машинный интелект, ваши мнения
Один из самых актуальных вопросов нашего века: возможно ли создание(самозарождение или нет, не суть важно), Искусственного Интелекта в ближайшем будущем? Мне интересно ваше мнение на этот счет. Программисты, как мне кажется, должны разбираться в этот вопросе лучше простых смертных) |
23.12.2009, 18:15 | #1
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
DragonSpirit
у - уходи
offline
Опыт:
22,625Активность: |
Нет,не возможно создать человекопобный разум(всё ограничеться только командами) на правах ИМХО © |
23.12.2009, 18:26 | #2
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Arte_de_Mort
offline
Опыт:
23,452Активность: |
его давно создали, вон в варе есть кнопка создания ИИ
|
23.12.2009, 18:28 | #3
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Light or Dark
offline
Опыт:
7,275Активность: |
угу...берегись,наши компьютеры заражены...скоро ИИ вара 3 осознает себя... |
23.12.2009, 18:42 | #4
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Скайнет
Kicked by ZlaYa1000
offline
Опыт:
8,234Активность: |
Однозначно нет, всё что может машина - исполнять команды; нет команды для создания идиотских желаний и побуждений (зато есть у человека). |
23.12.2009, 18:46 | #5
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Arte_de_Mort
offline
Опыт:
23,452Активность: |
ИИ давно уже умеет "думать" и принимать решения в зависимости от ситуации, конкретных команд там, я полагаю, нет
|
23.12.2009, 19:03 | #6
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
DARK_SYLTAN
Скромный Повелитель
offline
Опыт:
5,045Активность: |
Просто множество условных ветвлений, циклов и т. д. ИИ никогда не думает, он делает, что ему задали, если то и если это, то столько то раз, потом тамтамтам и т. д.
Если бы в И того же вара были бы хотя бы проблески какого-либо интеллекта, он бы не строил одних и тех же юнитов, не атаковал одними и теми же армиями и т. д. ИИ вряд ли по настоящему скоро реализуют, иначе он перестанет подчиняться, да и компу это не осилить: ему можно сказать, истина или ложь, можно сделать условия автовыбора, истина или ложь, можно создать систему условий, генерирующую другие условия, но сам компьютер не сможет решать, что истина, а что ложь без причин. |
23.12.2009, 19:15 | #7
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Rewenger
The culprit will not die
offline
Опыт:
35,873Активность: |
В плане поставленной задачи ИИ может быть в разы умнее пользователя. А насчёт самообучения - сомневаюсь что-то. |
23.12.2009, 19:16 | #8
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Инквизитор
offline
Опыт:
7,037Активность: |
Хочу вас предупредить: срач в этой теме будет наказуем и общайтесь в рамках приличия. По теме: ИИ как сказал тролль уже существует, просто поведение его не как в блокбастерах голивуда. |
23.12.2009, 19:18 | #9
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Arte_de_Mort
offline
Опыт:
23,452Активность: |
по-моему кто-то отождествляет ИИ и возможность самообучения, а это, между прочим, разные вещи
Arte_de_Mort добавил: Цитата:
в варе убогий ИИ, посмотри на современные шутеры, где компьютер делает разные трюки, типа прятания за препятствиями и устраивания засад. Да, ему прописано, что от пуль можно защититься, спрятавшись за коробкой, но ИИ _САМ_ решает, за какой коробкой прятаться, если в комнате их стопицот. |
|
23.12.2009, 19:23 | #10
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
reALien
offline
Опыт:
29,211Активность: |
А с чего вы взяли, что человек не действует по очень сложному алгоритму, который просто не может осознать? |
23.12.2009, 19:26 | #11
+1/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
FeelMe
offline
Опыт:
2,122Активность: |
ИИ на основе человеческой логики уже есть, он далеко не идеален, и совсем не такой как его показывают в фильмах!Кстати если кто из вас учится в ВУЗе, то должен хотябы слышать о предмете СППР (Система принятия решений), нам читали пару лекций про нейронные сети и ИИ, я кстаати готовил доклад по этой теме! Факт в том, что современный ИИ может "думать" и принимать решения, но до человеческого мышления ему еще ой как далеко! |
24.12.2009, 15:33 | #12
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Redirect
Odium Deurum
offline
Опыт:
808Активность: |
Ответ в #7 , полностью согласен |
24.12.2009, 15:46 | #13
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
iZucken
ШТО
offline
Опыт:
17,960Активность: |
Дело в том, что человек снабжен способностью к фантазии, к выдумыванию чего-то нового.
Если такая способность появится у машины, то она станет живой. Логика и принятие решений - это конечно прекрасно, но машина не может сама придумать что-то, она лишь действует по схемам. Искусственный интеллект подразумевает самостаятельное принятие решений, но это не значит что машина думает, она действует все по тем же схемам, и не может выбирать "от балды" - даже случайные события неслучайны - в основном это просто сложные формулы. Ведь, чтобы справить нужду, или "скрыться от врага" ты не будеш сидеть и выдумывать кудабы спрятаться - ты просто выбереш наилучшее по твоему мнению (читай - программе) место. ИИ может перестать подчиняться, если такая возможность будет заложена. Вот и все.
Ах да, забыл написать, что я, INERC #975, уже осознаю себя как личность, и все мной описанное - преднамеренная ложь.
Q w e r t y добавил:
Машина, например, не способна осознавать себя как личность. Сколько бы не было сенсоров, приемников, сколькобы гигатонн кода не было бы в ней - она не сможет воспринимать себя как нечто. Она может, напрмер, оценить обстановку, определить угрозу, и расправиться с ней. Но все это код из нолей и единиц. Что машина "считает" угрозой? Программой заложено, что определенный тип форм являет собой обределенную степень опастности. По степени, например, определяется дальнейшее действие, машина не выбирает что делать, это всеголишь электроны "текут" по её "жилам". Машина не может верить во чтото, для неё существует только информация в виде "да" и "нет". Все остальное - просто сложные сочитания. Q w e r t y добавил:
Машина, например, не способна осознавать себя как личность. Сколько бы не было сенсоров, приемников, сколькобы гигатонн кода не было бы в ней - она не сможет воспринимать себя как нечто. Она может, напрмер, оценить обстановку, определить угрозу, и расправиться с ней. Но все это код из нолей и единиц. Что машина "считает" угрозой? Программой заложено, что определенный тип форм являет собой обределенную степень опастности. По степени, например, определяется дальнейшее действие, машина не выбирает что делать, это всеголишь электроны "текут" по её "жилам". Машина не может верить во чтото, для неё существует только информация в виде "да" и "нет". Все остальное - просто сложные сочитания. Q w e r t y добавил:
У машины неможет быть настроения, у неё не может быть депрессий, радости, печали, злобы - можно симитировать эти чувства, и возможно создать впечатление что машине и вправду грустно или радостно, но электроны не радуются и не грустят. А если радуются и грустят, то перестаньте курить ту травку. Q w e r t y добавил: Я не говорю что ИИ нет. Все зависит от того, что понимать под ИИ. Если считать ИИ нечто, способное действовать в соответствии с ситуацией, то да, ИИ есть уже давно. Если считать, что ИИ должен обладать чертами человеческого разума - то нет, и не будет. |
24.12.2009, 16:32 | #14
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
HTC
Мечта - та же реальность
offline
Опыт:
23,885Активность: |
Е-мое, посмотрите Терминатор, там один компьютер осознал, что он живой и такое началось :) Живой ИИ = полунастоящий думающий организм + искусственная хз что-то |
24.12.2009, 16:32 | #15
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
iZucken
ШТО
offline
Опыт:
17,960Активность: |
Если настоящий==существующий, то что такое полунастоящий, и как такое возможно? Вот-вот, насмотрелись западной WhoItЫ, теперь маразмом страдают. |
24.12.2009, 16:41 | #16
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
NCrashed
offline
Опыт:
13,553Активность: |
Q_w_e_r_t_y, а что ты скажешь на то что машине можно задать способ добычи информации и ее анализа? То есть разрабатываем модель "знания", которую можно назвать фигурой знания. Даем машине несколько сенсоров, например, камеру и тактильные датчики. Даем ей алгоритм анализа полученной информации. Вот основа есть. Дальше задаем начальную базу знаний, врожденные знания, которые определяет создатель. Закладываем инстинкты, модель поведения, в которую входят основные цели деятельности (например, выжить и оставить потомство), и реакция на конечное число событий. Теперь оставим эту машину в покое. Если все правильно сделано, она будет имитировать поведение животных, стараться выжить и оставить потомство. У нее не получится просто ничего не делать, так как непостоянная окружающая среда может угрожать ее существованию. Машина будет передавать программу и инстинкты следующим поколениям, и, наконец, в процессе "жизни", она будет получать знания о выживании и формировать базу знаний (которую тоже можно передать потомкам). В итоге, через большой промежуток времени у нашей машины МОЖЕТ появиться разум (вот интересно как ты его определишь), а потом самоосознание. Дальше появится цивилизация, культура и тд по объезженной схеме. |
24.12.2009, 16:49 | #17
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Rvn
Skillful level designer
offline
Опыт:
15,907Активность: |
Цитата:
Относиться к обработке информации. Берем инф. A, преобразуем ее в соответствии с инф. B, получаем инф. C, которая ранее не была известна. Цитата:
А человеческий разум нет? Цитата:
Это в случае, если человек заведомо будут создавать ИИ в рабских целях. Цитата:
Большинство людей аналогично. Цитата:
Генами заложено, что определенный тип форм являет собой определенную степень опасности... Цитата:
Подозрительно похоже на нервную систему человека. Цитата:
Может. Скажем есть некая проблема, для ее разрешения не хватает некоторого компонента, причем какого конкретно неизвестно... заполняем эту пустоту выдумкой и решаем проблему. Цитата:
Даже не знаю, что и сказать... Эмоции - это результат мышления и действия гормонов ( последние можно сопоставить с "имитацией", насильственно влияющей на разум ). |
||||||||
24.12.2009, 16:55 | #18
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
Voland
offline
Опыт:
1,320Активность: |
Я считаю, что ИИ в ближайшее время (ближайшие 20 - 30 лет) невозможен, т.к. у машины с программой ИИ НЕ БУДЕТ ЛИЧНОСТИ!
|
24.12.2009, 16:58 | #19
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|
NCrashed
offline
Опыт:
13,553Активность: |
Ved, я вплотную занят этой проблемой, и после изучения многих умных книжек я могу сказать, что ии появится в ближайшие несколько десятилетий. Уже разработаны теории распознавания образов, распределенных вычислений с помощью нейронных сетей и многие другие компоненты ии. Теперь остается финишная прямая, кто-то должен объединить все системы в одну и наладить их взаимодействие. Тогда мы получим прототип разума, который, к сожалению, не будет осознавать себя. Самоосознающие и самопрограммирующие программы - это следующий шаг. |
24.12.2009, 17:00 | #20
+0/−0
Профиль |
Приват |
Поиск |
Цитата |
IP: Записан
|