Александр Болдачев. Как Серль работал драйвером вводы/вывода

Информация
Год написания: 
2012
Систематизация и связи
Логика
Философия науки и техники
Ссылка на персону, которой посвящена статья: 
Джон Роджерс Сёрль

Мысленный эксперимент Сёрля «Китайская комната» вызвал огромное число споров и обсуждений на тему может ли компьютер думать. И это замечательно – сама по себе проблема моделирования мышления безусловна интересна. Но вот только сёрлевская эксперимент, на мой взгляд, который я попытаюсь обосновать в этом коротком тексте, имеет к этой проблеме очень далекое отношение. 

Итак, комната, а в ней Сёрл, не знающий китайский язык, и книга с инструкциями, что и как делать с теми или иными иероглифами. Сёрлю в комнату передают китайские вопросы, на которые он с помощью инструкций получает ответы на китайском же и возвращает их обратно (при этом, естественно, ни черта не понимая). Далее китайские эксперты анализируют ответы и приходят к выводу, что комната прошла классический тест Тьюринга. Но тут из комнаты выходит Сёрль весь в белом и торжествующе заявляет: что если нечто и прошло тест, то это ничуть не значит, что оно хоть что-то понимает – вот он, Сёрль, как не знал, так и не знает китайского – он просто тупо следовал правилам без какого-либо понимания. Вот так прямо и сказал: «Таким образом, я выдержал тест Тьюринга на понимание китайского языка». Сказал, и вот уже три десятилетия все обсуждают так называемый аргумент «Китайской комнаты». А был ли мальчик? Была ли проблема? Давайте попробуем разобраться. 

Прежде всего, несколько модифицируем ситуацию в комнате – заменим «умную» книгу с правилами на компьютер, точнее, на компьютерную программу – ведь именно она выдает выполняемые Сёрлем инструкции. Такую интерпретацию предлагал и сам Сёрль: «в данном случае книга правил есть не что иное, как «компьютерная программа» (Searle, John. R. Is the Brain’s Mind a Computer Program?). Понятно, что смысл эксперимента при этом ничуть не изменится. И что получим? Сёрль лишь принимает из щели листок с иероглифами и всовывает его в сканер, а затем вынимает ответ из принтера и передает его китайским экспертам. Так? И кто тут проходит тест: Сёрль или программа? Ясно, что Сёрль тут вообще боком.

Ведь по задумке Сёрля его мысленный эксперимент должен подвести нас к выводу, что тест Тьюринга может быть пройден и без понимания, а, следовательно, не может быть критерием разумности. И вроде выполнение Сёрлем операций над незнакомыми ему символами подтверждает его мысль: тест пройден, а понимания не было. Но тут Сёрль делает подмену: тест-то прошел не он, а книга/программа, а следовательно, делать однозначное заключение о «природе» того нечто, что заключено в книге/программе он не имеет права. Более того, ясно, что тот, кто писал книгу/программу не только знал синтаксис и семантику китайского языка, но и передал эти знания программе. Иначе как бы она прошла тест?

Развивая компьютерную аналогию можно представить всю комнату как один компьютер, а Сёрля необходимым компонентом этого компьютера, прошедшего тест Тьюринга. Спросим себя, какую роль играл Сёрль в этом компьютере? В качестве прикладной (исполняемой) программы выступала книга: именно она выдавала результат – разумные ответы на китайские вопросы. А Серль, получается, работал лишь драйвером ввода/вывода, интерфейсом, связывающим прошедшую тест программу и экспертов. Можно так же представить, что Сёрль играл роль программы-интерпретатора, что в большей степени соответствует логике мысленного эксперимента: получает команду и формально выполняет ее. Но в любом случае ясно, что драйвер ввода/вывода или программа-интерпретатор обязаны «знать» лишь язык/протокол общения с исполняемой программой (в случае с Сёрлем в комнате – английский), но они принципиально не могут «знать», что эта программа делает, какую функцию выполняет: просчитывает дифуры или анализирует семантику китайского предложения. Кому придет в голову требовать, чтобы клавиатурный и экранный драйверы, понимали язык, которым оперирует «интеллектуальная» программа? 

Итак, компьютерная аналогия однозначно демонстрирует, что тест проходит именно «интеллектуальная» программа, алгоритм, книга, а не Сёрль, который лишь формально обеспечивает процедуру, для чего совершенно не нужно знать, что делает программа, на каком из человеческих языков она принимает и выдает информацию. То есть роль Сёрля в его эксперименте такова, что никакие его знания или незнания (китайского языка или чего-то еще) не могут повлиять на решение, принимаемое китайскими экспертами – тест проходит не он, книга.

Особо подчеркну, что я ничего не говорю о самой возможности программного моделирования разума, ничего не говорю об адекватности теста Тьюринга, как критерия успешности этого моделирования, я лишь отмечаю, что мысленный эксперимент Сёрля не является аргументом в этой области, то есть он ничего не утверждает ни о тесте Тьюринга, ни о разуме. Сёрль просто подменил проблему: вместо того, чтобы ответить на вопрос «возможно ли свести интеллектуальные или разумные действия к алгоритму?» (возможно ли создать программу/книгу, которая пройдет тест Тьюринга) он стал демонстрировать нам, что алгоритмы (ввода/вывода или интерпретации команд программы) можно выполнять и без понимания. Как будто мы это и без него не знали?  Проблема ведь в том, как книга/программа могла выдавать такие разумные ответы, что смогла пройти тест Тьюринга, а не в том, понимал или не понимал их Сёрль/драйвер.

0
Ваша оценка: Нет