Как Серль работал драйвером вводы/вывода. Обсуждение

Аватар пользователя Гость
Систематизация и связи
Философия науки и техники

Евгений Иванов, 12 Июль, 2015 - 18:02, ссылка 

Прочитал Вашу статью о Серле. Мне представляется, что Серл все же доказал "китайской комнатой" то, что хотел доказать, а именно  он показал, что имитация функции сознания не порождает соответствующую этой функции субъективную феноменологию, опровергнув тем самым тезис "сильного" ИИ, а, также, заодно сформулировав сильный аргумент против функционального подхода к решению психофизической проблемы.  Действительно, Серл-драйвер, по условию эксперимента, не понимает китайский язык и может выполнять алгоритм без всякого понимания, что он делает (иегоглифы можно предварительно перевести в двоичный код и тогда человек в комнате даже не будет догадываться, какую функцию он имитирует, а затем в конце заново перевести в иероглифы - это может делать "помощник", также не знающий китайского языка). Ясно, что и книга-программа сама по себе породить феноменологию, соответствующую пониманию языка, не может. Она есть просто совокупность мертвых, разрозненных символов, которые приобретают смысл и некую связанность только в сознании "драйвера", т.е. Серла, который, однако, по условию не понимает, что он делает (т.к. осуществление любого алгоритма не предполагает какого-либо понимания смысла своих действий, нет нужды даже запоминать предыдущие свои действия, т.к. каждая команда адресует к следующей команде, пока наконец не будет получена команда "стоп"). Т.е. ни Серл, ни книга по отдельности, ни их соединение - адекватной феноменологии (понимания китайского) не порождают - что и требовалось доказать.

Комментарии

Аватар пользователя boldachev

Евгений Иванов, 12 Июль, 2015 - 18:02, ссылка 

Серл все же доказал "китайской комнатой" то, что хотел доказать, а именно  он показал, что имитация функции сознания не порождает соответствующую этой функции субъективную феноменологию

Прежде всего, "китайская комната" вообще ничего общего с "имитация функции сознания"  не имеет. Серль ставил проблему понимания, а это совсем не про субъективную феноменологию (я уже замечал, что вы не очень уверенно различаете мышление/понимание и сознание/феноменологию).

опровергнув тем самым тезис "сильного" ИИ

Из факта, что Серль не понимал, как работает программа/книга, прошедшая тест Тюринга никак не следует опровержение хоть чего-то, тем более,  тезиса "сильного" ИИ. (Ну это как заявить, что если драйвер ввода/вывода не может сделать перевод теста, то это не по зубам и прикладной программе.)

заодно сформулировав сильный аргумент против функционального подхода к решению психофизической проблемы

Поясните, а каким боком  мысленный эксперимент "Китайская комната" причастен к психофизической проблеме? 

Ясно, что и книга-программа сама по себе породить феноменологию, соответствующую пониманию языка, не может.

Опять, во-первых, причем тут феноменология? И самое главное, во-вторых, если вам (и Серлю - он вообще это постулировал) изначально ясно, что книга-программа понимать не может, то к чему вообще этот мысленный эксперимент? Ведь логика должна быть такая: (1) мы не можем постулировать непонимание книги/программы и допускаем, что она понимает, (2) но согласно таким-то рассуждениям ("китайская комната") приходим к выводу, что  понимание невозможно. Но такой логики в мысленном эксперименте Серля нет - из того, что Серль-драйвер не понимает логически не следует, что то нечто, что выдает ответы на вопросы экспертов не обладает пониманием. Вот и вы пишете, мол программа, понимать не может и из этого, согласно Серлю следует, что программа понимать не может. Но ведь это тавтология )))

Понимаете? Если вы изначально допускаете, что у книги нет понимания, то и обсуждать нечего - не нужны никакие аргументы, бессмысленны  мысленные эксперименты - есть просто вера. А если вы не постулируете непонимание, а пытаетесь его доказать, то такого доказательства в мысленном эксперименте "Китайская комната" нет. А есть лишь обратное - констатация, что книга-программа прошла тест Тюринга. Понимаете? Прошла!

Она есть просто совокупность мертвых, разрозненных символов, которые приобретают смысл и некую связанность только в сознании "драйвера", т.е. Серла

Это просто искажение сути мысленного эксперимента. В сознании Серля нет никакого смысла (Серль не знает китайского и констатирует сам, что ничего не понимает). Бессмысленность вашей фразы легко продемонстрировать если допустить, что в комнате была бы другая, менее "умная" книга-программа - тогда бы Серль делал бы, что и делал (принимал и выдавал иероглифы), а комната бы тест не прошла. Еще раз: пройдет или не пройдет тест Тюринга комната зависит не от Серля (он лишь драйвер), а от книги-программы. Именно поэтому никакие рассуждения о Серле-драйвере не имеют никакого отношения к факту прохождения теста.

Т.е. ни Серл, ни книга по отдельности, ни их соединение - адекватной феноменологии (понимания китайского) не порождают - что и требовалось доказать.

Итак. Мысленный эксперимент вообще не про феноменологию (феноменология и понимание - это две большие разницы). Центральным моментом мысленного эксперимента является прохождение комнатой теста Тюринга. Поскольку Серль не имеет никакого отношения к этому прохождению, то сам мысленный эксперимент ничего не доказывает. Вообще ничего. Он просто ни о чем. 

Если вы хотите доказать обратное, то проследите логику мысленного эксперимента без изначального постулирования, что книга-программа понимать не может.

Аватар пользователя Евгений Иванов

Ну если разделить понимание и феноменологию (т.е. переживание смысла), то эксперимент Серла действительно ничего не доказывает.
 

Аватар пользователя boldachev

Так хоть соединяй, хоть разъединяй - все равно ничего не доказывает. Я вообще не понимаю, где вы в Китайской комнате увидели феноменологию?

К анализу мысленного эксперимента Серьля можно вообще подойти формально.

  1. Прошла ли комната тест Тьюринга (что бы это ни значило, не вникая что это за тест, на что этот тест и т.п.)? Прошла! Факт установленный экспертами. Заложенный в основу мысленного эксперимента.
  2. Имеет ли хоть какое-то отношение к прохождению теста Серль? Ни малейшего. Тест прошла книга/программа. Была бы другая - более глупая - книга/программа, и заключение экспертов было бы другим - а Серль все также усердно работал бы для нее драйвером/интерпретатором.
  3. И теперь главный вопрос: имеет право Серль произносить "я выдержал тест Тьюринга"? Нет.

Все. Точка. В исходной формулировке мысленного эксперимента заложена элементарная логическая ошибка. И после констатации этого уже совершенно неважно, что хотел обосновать этим экспериментом Серль - Китайская комната должна остаться в истории аналитической философии сознания как столь возбудившее всех недоразумение. 

Аватар пользователя boldachev

To Евгений Иванов

Мне все же интересно, где вы разглядели феноменологию в Китайской комнате. А самое главное, как вы пришли к выводу:

Программа не обладает феноменальным сознанием (это можно обосновать  с помощью мысленного эксперимента "китайская комната" см. п.5.1). (ссылка)

Где вы там узрели обоснование? 

Аватар пользователя Евгений Иванов

Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, цель которого состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек.  (Из Википедии).

Обладать сознанием в том же смысле, котором им обладает человек - это значит обладать феноменальным сознанием (поскольку человек обладает феноменальным сознанием). Аргумент Серла можно испоользовать для критики "функционального подхода" к решению психофизической проблемы. Функциональный подход (например, в версии Дубровского или Патнема) предполагает, что феноменальное сознание автоматически появляется всякий раз, когда имеет место тоже самое отношение "вход- выход", что и  для человеческой психики, т.е. когда имеется адекватная функциональная имитация человеческой психики, независимо от физического  способа этой имитации  (феноменальное сознание, по Дубровскому, есть информационное содержание сенсорных процессов в мозге "в чистом виде", т.е. инвариантное к субстратной основе) . Аргумент Серла показвает, что функциональная имитация сознания не порождает адекватной ситуации феноменологии: имитация понимания. не порождает переживания смысла понимаемого, имитация восприятия - переживания адекватных чувственных образов и т.п. (Предположим, что книга-алгоритм в КК - есть алгоритм распознавания образов, написанный шрифтом Брайля, этот алгоритм исполняет слепой человек. На вход КК подается распечатка в виде двоичного кода изображения яблока (шрифтом Брайля), сканируемого цифровой камерой, на выходе имеем двоичный код, который есть шифр фразы "Я вижу яблоко". Функционально человек в КК  как бы "видит яблого" (с т.з. внешнего наблюдателя), однако по условиям эксеримента феноменальное "видение" (с т.з. самого субъекта в КК) полностью отсутствует).

 

Аватар пользователя boldachev

Евгений Иванов, 19 Июль, 2015 - 17:24, ссылка

Аргумент Серла можно использовать для... Аргумент Серла показывает, что...

 О чем вы?

Я вас как раз и спрашиваю: что это за такое чудо "аргумент Серля"? Вы можете пояснить? И какое отношение он имеет к сознанию, к феноменологии?

Ведь есть вполне конкретный, формально описанный мысленный эксперимент. Так объясните мне (не цитатой из вики) каким образом он что-то там показывает.

Просто прочитайте мой текст Как Серль работал драйвером вводы/вывода и выявите там логические ошибки.

Аватар пользователя Евгений Иванов

ВыПрежде всего, несколько модифицируем ситуацию в комнате – заменим «умную» книгу с правилами на компьютер, точнее, на компьютерную программу – ведь именно она выдает выполняемые Сёрлем инструкции.

Здесь Вы искажаете смысл мысленного эксперимента Серла. В исходном эксперименте  он не просто работает "интерфейсом, связывающим прошедшую тест программу и экспертов". Выполняя программу "вручную",  он "работает" именно "компьютером"  (компьютер, состоящий из Серла и книги - где Серл выполняет функцию "процессора" этого компьютера), а не интерфейсом. Сама по себе книга-программа ничего "понимать" не может, хотя бы потому. что как некая "система", может быть таковой лишь в восприятии какого-либо субъекта, и сама по себе она не действует. Какая-то связь и осмысленность знаков книги (хотя чисто элементарная: "это единица", "это ноль") существует лишь в сознании Серла, читающего эту книгу. Т.о. как же можно утверждать, что тест на понимание китайского языка проходит "программа", а не Серл, исполняющий эту программу?

Аватар пользователя boldachev

Здесь Вы искажаете смысл мысленного эксперимента Серла.

Ничуть! Это модификация самого Серьля: «в данном случае книга правил есть не что иное, как «компьютерная программа» (Searle, John. R. Is the Brain’s Mind a Computer Program?). То есть тут нет никакого искажения: сам Серль признает, что он лишь обслуживает программу. 

где Серл выполняет функцию "процессора" этого компьютера), а не интерфейсом.

А вот это совершенно без разницы. Можно представить Серля и процессором, который с одинаковым успехом может выполнять как программку написанную школьником, так и программу прошедшую тест Тюринга. В любом случае он не имеет никакого отношения к семантике/смыслу отношения входных и выходных данных/суждений.

Сама по себе книга-программа ничего "понимать" не может, хотя бы потому. что как некая "система", может быть таковой лишь в восприятии какого-либо субъекта, и сама по себе она не действует.

Ну, с этим можно соглашаться или не соглашаться, это можно обсуждать. Тут я с вами полностью солидарен - программа (то, что сейчас подразумевается под программой) понимать не может. Но причем тут Серль? Причем тут Китайская комната? Каким образом мысленный эксперимент Серля обосновывает этот тезис про непонимание программы? В нем, наоборот, констатируется, что программа/книга прошла тест Тюринга на понимание.

Т.о. как же можно утверждать, что тест на понимание китайского языка проходит "программа", а не Серл, исполняющий эту программу?

Как? Вот так, как это делает Серль - он просто констатирует, что программа/книга прошла тест. 

Допустим перед нами не программа/книга, а нечто, ну, скажем, инопланетянин и мы его проверяем на интеллект не банальным тестом Тюринга, а каким-то действительно серьезным тестом. Мы задаем ему вопросы. Серль на побегушках их передает ему. Получает ответы и возвращает нам. В итоге мы принимаем решение - тест этим нечто на интеллект пройден. А тут выходит Серль и говорит: а я ничего не понимал. Мы смотрим на него как на идиота - а ты то тут причем? Ты и не должен ничего понимать! Ты лишь работал драйвером/интерпретатором/процессором, а тест выдержало то нечто, что давало ответы.

Вот и получается, что вы, как и Серль, то что следовало доказать (что программа не может понимать) ставите в условие - программа не может понимать. А тогда в чем суть мысленного эксперимента? 

Ну и потом, вы так и не ответили на вопрос про феноменологию - где она в Китайской комнате?

Аватар пользователя Спокус Халепний

Если заменить китайскую комнату обычной - с двумя дверями на противоположных стенках. И за одними дверями посадить шахматиста, а за другими ИЛИ шахматиста, ИЛИ компьютерную шахматную программу. И шахматисту надо было бы определить кто с ним играет - другой шахматист или машина... То роль Серля в данном случае сводилась бы к передвижению по комнате от одной двери к другой с докладом каждой стороне какой ход был сделан противником.

 

Аватар пользователя Евгений Иванов

Вовсе нет. Он должен физически выполнять вычисления, т.е. реализацию алгоритма. Программа могла бы быть и в памяти Серла, если бы он обладал абсолютной памятью, как Шерешевский. 
 

Аватар пользователя Спокус Халепний

Я согласен. Просто в главной комнате тоже стоит шахматная доска и "Серл" перемещает на ней фигуры и анализирует партию.