7 ноября 2018, 10:40
китайская комната
мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Джон Сёрл
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.
Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.
В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Джон Сёрл
46 комментариев
однако он был задан фантастами не однажды)
возможно ли в принцыпе отличить искуственно созданный "..." от ...?
определения в скобках выберите сами)
вот это может быть создано, по другому, по сути, не сымитировано?
П — # О #;
П — з*%;€ О — 3*%;€
Где каждый значок означает некое проявление в переживании.
Если два сознания равные то оба будут уметь коммуницировать. То есть принимать транзакцию, исследовать ее и воспроизводить ответную транзакцию.
Здесь смешали в тексте два представления, для какой цели не понятно, явно что то доказать. Но ошибка в подходе. Само познание упущено. Понимаешь?
А если мы смотрим все таки на познающее сознание а не на станок с ЧПУ, то…
В случае с сигналом станок реагирует на сигнал совпадающий с его базой данных. Это и есть понимание. Других пониманий не существует. И ошибкой можно считать существование какого то иного познания и понимания.
разные сложные чат-боты это уже сознание? нет. но с ними можно вполне сносно общаться, они самообучаемы, обладают возможностью распознавать эмоции в словах и в образе через камеру, считывая мимику. даже шутят. :) и далее ситуация будет только улучшаться. да так, что не отличишь. вот тогда они станут полноценным сознанием?
это не понимание. а моделирование понимания. понимание — это осознанная компетенция. что такое осознанность?.. фиг его знает. но как-то смоделировать можно. :)
быть человеком и выглядеть как человек не одно и то же. что такое быть, переживать — невозможно сказать. точнее сказать то можно, но это не быть и переживать. :) но признаки этого бытия можно воспроизвести (нейронные сети, распознавание, самообучение...). ибо оперировать можно лишь самими феноменами, пытаясь их заставить возникать так, будто они возникают у живого человека, но не их проживанием. этим человек и занимается. и в чём, несомненно, преуспеет.
можно это назвать такую машину ИИ? да, если не брать в расчёт это условие "способна обладать сознанием в том же смысле, в котором им обладает человек"
Если про осознанные компетенции то мне кажется, что самоосознание добавляется.
Вопрос: что может быть человеком или выглядеть как человек?
Проживание это перцепция и свидетельствование?
Человека наделить способностью само знания без обучения, не получится. Рождается организм и с момента рождения обучается, в зависимости от социума и среды. И у чукчи отличается знание от знания у аборигена зимбабве. Если из посадить рыдом и наблюдать, будет процесс высираивания коммуникации, поиск общего и объяснения научения.
Одно слово Снег может иметь разное значение.
бонусом? :) т.е. если что-то выглядит как утка, ходит как утка, крякает как утка и т.д. — то это живая утка? очень смело раздавать жизнь лишь на основании того, как внешне это похоже на жизнь. но если достаточно лишь что-бы внешние проявления совпадали бы с реальной уткой — то вполне можно. :)
перцепция, присутствие. у человеческого сознания всё из одного теста. в том числе и свидетельствование… ну так вот. всевозможные знания о вкусе, о том, какие электрические импульсы где происходят по-твоему гарантированно дадут возможность создать сознание, способное переживать? чувствую, что всё упирается в веру, что «да». есть ли способы это подтвердить? нет. только надеяться, что кучка движущихся электронов — являются полным доказательством наличия человеческого переживания у ИИ. но так ли это? сомневаюсь. выше уже говорил на каком основании.
Как мы определяем что это живая утка? Каковы особенности и различия у живого объекта и неживого?
Мы не можем гарантировать даже то что человек гарантировано сознает, при наличии переживаний. Берем психиатрические больницы и изучаем организмы которые обладают подобными проявлениями и свойствами и чем отличаются.
Есть же какие то критерии по определению, есть ли у объекта переживапия и сознание или нет. Какие?
можно перечислить лишь косвенные проявленные признаки. этим и можно заниматься, моделируя те или иные признаки, усложняя и усложняя в попытке повторить. не более. можно конечно сказать, что даже в отношении другого человека нет оснований сказать, что он что-то переживает. но предполагается, что переживает, т.к. предполагающий сам переживает. :)
т.е. как по мне задача не решаемая. но челу в общем это и не нужно для удовлетворения своих потребностей. человеко-подобие будет выглядеть всё больше подобным. и в один момент наверное вообще можно будет не отличить настоящего от имитирующего.