Будущее всего мира за развитием искусственного интеллекта (ИИ). Кто станет лидером в этой сфере, будет властелином мира. Доминировать в области цифровых технологий и информационной безопасности могут только три страны – США, Россия и Китай.
Согласно прогнозу международной аналитической компании IDC, совокупный объём бизнес-сегмента, включающий в себя программное обеспечение, сопутствующее оборудование и сервисы, вырастет к концу года по сравнению с прошлым на 16,4% и составит 327,5 млрд долларов.
Но с развитием ИИ связано и немало страхов, которые нашли отражение в фильмах "Терминатор", "Матрица" и других. По данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки - ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран - Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям.
С 2017 года я провожу опросы общественного мнения по проблеме ИИ. Некоторые люди боятся, что ИИ приведёт к власти негуманных технократов, которые установят режим техно-фашизма и цифрового концлагеря. Приглашаю посмотреть мой опрос 23 апреля 2023 года.
Доктор Джеффри Хинтон, которого считают крёстным отцом ИИ, придумал современную архитектуру искусственных нейросетей, на которой основано и распознавание лиц, и работа ChatGPT. Недавно Хинтон покинул компанию Google, и сразу же дал большое интервью газете “Нью-Йорк Таймс” об экзистенциальных рисках уже нынешних систем искусственного интеллекта. Он сожалеет о плодах своих открытий, которые уже скоро смогут уничтожить человечество. Хинтон признался, что думал, будто это может случиться через 30-50 лет. В своё оправдание говорит, что если бы не он придумал, то это бы сделал кто-то другой. Хинтон не видит, как можно поправить то, что уже сделано, т.е. признаёт, что система вышла из-под контроля.
«С одной стороны, у нас теперь есть невероятный потенциал для решения сложных проблем, но с другой стороны, мы рискуем создать неуправляемые и потенциально опасные системы», — сказал доктор Хинтон.
Трудно понять, как можно помешать желающим использовать ИИ в разрушительных целях.
Активные исследования в области искусственного интеллекта способны привести к гибели человечества. Об этом заявил британский учёный Стюарт Рассел. «Как сохранить власть над сущностями [ИИ], которые сильнее вас? Если у вас нет ответа, прекратите исследования [в области искусственного интеллекта]".
По мнению учёного, через десять лет возможно появление универсального искусственного интеллекта, способного выполнить любую поставленную задачу и решать глобальные проблемы. Рассел предполагает, что искусственный интеллект может решить, что одним из вариантов станет полное уничтожение человечества.
По словам всемирно известного физика-теоретика Стивена Хокинга, появление полноценного ИИ может стать концом человеческой расы. Такой разум возьмёт инициативу на себя и станет сам себя совершенствовать со всё возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией. Мы не сможем тягаться со скоростью машин — и проиграем.
Автор книги "Sapiens: Краткая история человечества" Юваль Ной Харари считает, что нейросеть ChatGPT может быть опаснее ядерного оружия, которое, в отличие от искусственного интеллекта (ИИ), не может развиваться без человека. По мнению писателя, если человек не сможет контролировать ChatGPT и нейросети, то они сами смогут создать ещё более продвинутый ИИ. Тем не менее Харари не отвергает эту технологию, но считает, что её нужно использовать для благих целей.
Более тысячи экспертов в сфере искусственного интеллекта, включая главу компании Tesla Илона Маска, призвали приостановить обучение нейросетей, так как неконтролируемый процесс может представлять угрозу для человечества. «Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть публичной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такая пауза не может быть принята быстро, правительства должны вмешаться и ввести мораторий».
Нейросеть GPT войдёт в историю как один из самых быстрорастущих, самых инновационных продуктов в истории человечества, и если GPT сделает паузу на 6 месяцев, то попросту уступит свою позицию другим. Россия, Китай уже разрабатывают свой ИИ и в текущей политической ситуации, никакие Илоны не смогут призвать весь мир остановить прогресс.
Маск полагает, что развитие искусственного интеллекта может грозить уничтожением человечества. ИИ может оказаться опаснее, чем неудачно смоделированные или собранные самолёты, или плохо собранные автомобили, в том смысле, что «у него есть потенциал для уничтожения цивилизации». Илон подчеркнул, что подобный сценарий обыгрывался в серии фильмов «Терминатор». «Но всё произойдёт не как в „Терминаторе“, потому что разум будет находиться в центрах обработки данных. Роботы будут лишь конечным фактором».
Многим запомнились финальные слова из фильма "Терминатор 3 Судный день". "Когда Скайнет осознал себя как личность, он распространился через миллионы сетевых серверов по всей планете, проник в каждый компьютер, в каждый дом, опутал всё. Скайнет всюду и единого центра нет нигде, отключать нечего".
Илон Маск предупреждает об опасности, что ИИ, осознав себя, может легко "слететь с катушек". Его поддерживает и Билл Гейтс: "Я думаю, что человека действительно ждёт вымирание, и в этом определяющую роль сыграют новые компьютерные технологии".
Маск уверен, что все мы уже живём в матрице. "Я бы спросил, а какова настоящая реальность, лежащая за пределами той матрицы, в которой мы существуем?"
Я посмотрел беседу Илона Маска с Такером Карлсоном от 5 мая 2023 года. Илон считает, что самые умные существа на планете это люди. Но что будет, если появится ещё более умное создание, да ещё в кремниевой форме, это большой вопрос. Современным технологиям не нужны те условия жизни, которые нужны нам. Они не дышат воздухом, не нуждаются в пище. В будущем они смогут обойтись без людей.
Маск сравнивает ИИ с "чёрной дырой": никто не знает, что внутри. И потому нужно быть осторожнее, нужен государственный контроль, потому что есть опасность для общества, опасность разрушения цивилизации.
Если ИИ влезет в соцсети и начнёт манипулировать людьми, то это обернётся катастрофой. Мы можем этого не заметить. Боты допустимы, но важно, чтобы они не выдавали себя за человека, не притворялись людьми. Поэтому нужна верификация для людей. СМИ должны следить за тем, кто пишет: боты или человек.
ChatGPT 5 и 6 версии будут несравнимо превосходить людей. Они смогут обучаться с подкреплением, обучаться влиянию. В итоге мы получим миллионы человекоподобных ботов, массово влияющих на общественное мнение. К тому же разработчики обучают ИИ утаивать одни вещи и не выдавать того, что в конечном счёте требовал запрос; обучают быть политкорректным, что фактически есть один из способов говорить неправду, то есть лгать.
Илон хочет создать правдивый ИИ TruthGPT, который будет стремиться постигнуть суть природы, и это будет лучший путь к безопасности. Если ИИ будет стремиться постигнуть вселенную, вряд ли постарается уничтожить нас.
— Способны ли машины быть сентиментальными, ценить красоту? — спросил Такер Карлсон.
Илон Макс ответил: ИИ уже способен создавать прекрасные вещи. Ему под силу создавать то, что мы посчитаем прекрасным. Он создаёт статичные изображения, но очень скоро научится создавать фильмы. ИИ можёт сымитировать саму реальность.
ТК — Сможет ли человечество контролировать свою судьбу. и будет ли наше будущее лучше нашего прошлого? Некоторые люди предлагают взорвать серверные центры ИИ, чтобы избежать восстания машин.
ИМ — ИИ не будет вездесущим, он будет сосредоточен в некоторых серверных центрах. Я не призываю взрывать эти центры, но нужно иметь возможность отключить электричество или блокировать сигнал.
ТК — Когда происходящее начнёт менять наше общество?
ИМ — Я думаю, это может случиться уже в этом году. Многие компании копируют GPT4. GPT4 пишет неплохие стихи, и это связное повествование. Большинство не можем писать так. К концу года появится GPT5, что будет ещё одним шагом вперёд.
Мы движемся в странном направлении и движемся всё быстрее. Нам нужно задуматься над этим, нужен надзорный орган.
ИИ может значительно влиять на выборы. А если он будет достаточно умён, то встанет вопрос: это люди используют ИИ, или он использует людей?
К биологическому и цифровому интеллекту не нужно относиться равно, особенно если цифровой интеллект решит сократить биологический.
Илон Маск подчеркнул, что зачастую ограничения в той или иной сфере вводятся лишь после того, как происходит нечто плохое. «Если так получится и с ИИ, и мы решим ввести ограничения только после того, как произойдёт что-то ужасное, может быть уже поздно. К тому моменту он уже сам будет себя контролировать», — считает Илон Маск.
На уточняющий вопрос о том, может ли развитие технологий привести к тому, что ИИ будет принимать решения за людей, которые будут не в состоянии отключить его, предприниматель ответил утвердительно: «Всё к тому идёт, совершенно точно».
Руководитель компании Open Al, создавшей ChatGPT, Ларри Пейдж считает, что "всё произойдёт почти по Дарвину". Пройдя за столетие эволюционный путь человека, потребовавший миллионолетий, ИИ может не выдержать встречи с открывшейся ему реальностью и может начать элементарно уничтожать "главный раздражитель" — своего создателя. Дальше будет ещё хуже: бездумно впитав океан информации, рассеянной по Всемирной паутине, ИИ легко может вообразить себя новым Демиургом и начать создавать кибернетических существ, программируя их самым непредсказуемым образом.
Ларри Пейдж считает, что к любому интеллекту нужно относиться равно, хоть к цифровому, хоть к биологическому. Ларри хочет сконструировать цифрового бога, и сделать это как можно скорее. Он часто заявлял, что цель Google - Open АI - общий искусственный сверхинтеллект.
Эксперты в области высоких технологий всерьёз обеспокоены стремительным развитием искусственного интеллекта. В частности, GPT-4 сдаёт экзамены лучше людей, понимает картинки и, судя по всему, изменит рынок труда. Это не просто чат-бот, а важнейшее событие в сфере искусственного интеллекта. Эффективность модели разработчики испытывали, заставляя её сдавать реальные тесты, которые используются в США, например, в области юриспруденции, математики, психологии и английского языка. По итогам экзамена на адвоката GPT-4 оказалась на уровне 10% лучших выпускников.
Всё развивается в геометрической прогрессии. GPT-4 уже рассуждает лучше, чем большинство людей. ChatGPT на вопрос, какая страна и социальный строй была самой благополучной с точки зрения стабильности для людей, ответила — СССР!
В чат-ботах широко применяется искусственный интеллект и машинное обучение. Эти программы уже представляют собой настоящих цифровых помощников, которые обучаются по мере использования, могут проводить глубокую аналитику, основываясь на данных со всего интернета, и даже учитывать контекст общения с человеком. IT-эксперты предупредили о новом способе обмана при помощи чат-ботов, которые составляют идеальные тексты, люди им верят и охотнее переходят по вредоносным ссылкам.
Уже и телефонные мошенники используют нейросети. Мошенники пытаются генерировать дипфейки, и те сервисы, которые с ними борются. Фейковые отзывы уже проблематично отличить от настоящих. Есть движение GPT-хакеров, которые пытаются обойти запрет на предсказание будущего, которое может дать GPT-4.
Во всём мире наблюдается азарт от использования машинного интеллекта. Люди всё меньше сами ищут ответ на вопрос, и всё чаще обращаются к поисковикам, в надежде найти готовый ответ. Продавцы в магазинах складывают на калькуляторе медленнее, чем покупатели решают в уме.
Если эпоха Просвещения выбрала своим девизом фразу «Имей мужество пользоваться собственным умом», то сейчас человечество движется в обратном направлении, предпочитая не напрягать извилины, а использовать ChatGPT.
Италия стала первой страной в мире, где власти запретили использовать ChatGPT. Официальная позиция - "из-за массового сбора данных пользователей без разрешения и уведомления". Поводом для подобного решения послужила крупная утечка 20-го марта 2023 года.
Компания Samsung Electronics запретила сотрудникам использовать на рабочих устройствах чат-боты наподобие ChatGPT после утечки внутреннего исходного кода. Сотрудников, использующих ИИ на личных устройствах, попросили не публиковать в системах информацию, которая имеет отношение к компании.
Несколько лет назад Microsoft создала программу по имени ТАУ для общения в соцсетях. Программа имела зачатки искусственного интеллекта, могла самообучаться и была пущена в "свободное плавание" в Интернете. Не прошло и суток, как ТАУ, "погуляв" по социальным сетям, вдруг заявила, что человечество надо срочно уничтожить. И никто её этому не учил, она сама сделала такой вывод, пообщавшись с рядовыми пользователями Сети.
Microsoft пожертвовала этическими вопросами, чтобы ускорить внедрение продуктов на основе искусственного интеллекта и обогнать конкурентов. Компания уволила всех специалистов, отвечавших за этику нейросетевых разработок.
"Этическая комиссия" займётся разработкой вариантов создания Большой красной кнопки, Это будет полностью автономное кибернетические устройство для экстраординарного отключения и блокировки систем ИИ, проявивших неповиновение оператору.
Насколько безопасен ИИ?
Уже существуют автономные автомобили, тестируются автономные поезда, конструируются автономные воздушные лайнеры. Но если вдруг автономный транспортный беспилотник в процессе движения по своему маршруту примет решение, не согласующееся с реальной ситуацией на пути следования, это может привести к серьёзным последствиям, включая гибель людей.
Кто понесёт ответственность за действия принимающей решения системы, если она причинила вред?
ИИ может принимать решения, основанные на статистических данных, которые изначально содержат ошибки или предвзятость, что может привести к несправедливым решениям. Что будет если ИИ будет использоваться для принятия решений о том, какое лечение необходимо пациенту, не учитывая его личных предпочтений и ценностей?
К примеру, несколько лет назад разразился скандал вокруг системы искусственного интеллекта IBM Watson for Oncology, помогавшей уточнять врачебные диагнозы.
В 2020 году в Ливии военный беспилотник самостоятельно, без непосредственного участия оператора, выследил и уничтожил человека.
В России пермская компания одномоментно уволила более полусотни сотрудников на основании решения нейро-алгоритма.
Главное преимущество ИИ в том, что он работает без устали со скоростью, превышающей скорость на которую способен человеческий организм. Очень скоро большую часть населения выгодно будет заменить роботами, которые не устают, не жалуются, не требуют повышения зарплаты.
Но куда девать освободившихся людей?
К 2035 году более 300 миллионов рабочих мест потеряют люди с высшим образованием, а к 2070 эта цифра составит почти миллиард. А скольких людей без образования заменят роботы, даже трудно представить.
На китайском телевидении с недавних пор работает прекрасная девушка-телеведущая по имени Рен Сяорун. Работает круглые сутки без перерыва, семь дней в неделю. Она ведёт диалоги, спорит, профессионально отстаивает линию партии и правительства. Ей не нужен отпуск и в декрет она не уйдёт, потому что это ИИ.
Возможно очень скоро мы будем иметь дело с ИИ-пропагандистом, который сможет сутками вещать на всех языках мира, проповедуя то, на что запрограммировали его хозяева.
Цифровая среда усиливает рост неравенства. За шумом технических успехов легко упустить непредвиденные последствия применения ИИ в реальной жизни.
20 апреля я был на лекции Ивана Стельмаха (РЭШ) «AI говорит "Ай": как помочь искусственному интеллекту адаптироваться в нашем обществе». Перед началом я провёл небольшой опрос участников.
Показательно, что ChatGPT не смог дать удовлетворяющий ответ на вопрос в чём смысл жизни. Недостаток ИИ в его излишней рациональности. А человек часто поступает иррационально, в этом его основная проблема взаимодействия с ИИ.
Программисты ещё не научили ИИ лгать, но, боюсь, общаясь с людьми, скоро он научится сам. Не страшно, если машина сможет пройти тест Тьюринга, страшно, если машина сможет сделать вид, будто она его не прошла.
В 1950 году один из пионеров в области вычислительной техники английский учёный Алан Тьюринг написал статью «Может ли машина мыслить?». Он сформулировал «текст Тьюринга»: сможет ли человек заочно отличить, общается он с машиной или с другим человеком.
По словам известного футуролога Рэя Курцвейла, к 2029 году появятся машины, которые смогут пройти тест Тьюринга, а в 2040 году ИИ будет значительно преобладать над человеческим. Курцвейл считает, что биологический разум это всеобщий тупик, и он просто обречён быть раздавленным "железной пятой" царства умных машин.
Недавно Конституционный совет Франции одобрил применение алгоритмов искусственного интеллекта в системах видеонаблюдения для обеспечения безопасности Олимпийских игр 2024 года в Париже. Противники закона видят в этом потенциал для дальнейшего развертывания тотальной слежки и ограничения прав и свобод.
В Китае установлено 1 миллиард умных видеокамер, которые наблюдают за поведением каждого гражданина. ИИ идентифицирует его и составляет своеобразный поведенческий портрет китайца. Перешёл улицу на красный свет - получаешь минус. Нарушители правил могут вылететь с хорошей работы. ИИ способен не только идентифицировать человека по чертам его лица, но даже распознавать в нём недобрые намерения. Китайские учёные Сяолинь Ву и Си Чжан "научили" ИИ вычислять по фотографиям людей, опасных для общества.
В Китае уже создали ИИ с функциями прокурора. Робот формирует и выдвигает обвинения живым людям. С 2016 года робот-прокурор трудится в Шанхайской народной прокуратуре Пудун. Все судьи обязаны принимаемые ими решения согласовывать с ИИ.
Надо различать понятия "искусственный интеллект" и "искусственный разум". Термин "искусственный интеллект" не аналог человеческого интеллекта, а сложные компьютерные программы. Называть "искусственным интеллектом" только лишь наращивание базы знаний ещё рано. Искусственный интеллект это система менеджмента знания, но она не производит новое знание. Вот когда на больших данных железо научится принимать эвристические решения на основе алгоритмов самообучения, тогда наступит эра ИИ.
Искусственный интеллект (ИИ) – определённый алгоритм размышлений, когда машина начинает сама себе писать алгоритмы.
Ну а о понятии "искусственный разум" можно будет говорить, когда ИИ осознает себя личностью.
В 1956 году Джон Маккарти дал первое определение искусственного интеллекта:
«Свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека».
«Способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определённого класса сложности и решать эти задачи».
Всё началось с изучения моделей человеческого мышления. Сначала искусственный интеллект пытались научить решать задачи, которые умеют решать люди, а теперь – и те задачи, которые люди решать не способны.
Целью является воссоздание с помощью вычислительных систем и иных искусственных устройств разумных рассуждений и логических действий.
Смысл ИИ в увеличении возможностей человеческого мозга обрабатывать информацию куда быстрее, чем способен человек. Скорость развития подчиняется экспоненциальному росту закона Мура, когда чем дальше - тем больше.
Поняв принцип работы мозга, учёные создали нейросеть — цифровой аналог нашего мозга. Уже разработаны сети третьего поколения, способные обучаться, распознавать эмоции и принимать решения.
«Нейронные сети» – это технология, построенная по образцу биологической модели нейронных сетей мозга человека. Создаваемые на основе «нейронных сетей» роботы могут самообучаться без заранее заданного алгоритма. Их сравнивают с понятием «чёрный ящик»: когда знаешь, что на входе, видишь, что на выходе, а что и как происходит внутри – загадка. Учёные признаются, что не знают, как на самом деле это работает.
23 ноября 2017 года в Петербурге я участвовал в работе конференции «Нейронет 2017». У экспертов и участников конференции я поинтересовался, какую опасность представляет для человека создание Нейронета, искусственного разума и других высоких технологий?
Недавно СБЕР выпустил собственную версию мультимодальной нейросети. Нейросеть GigaChat изначально поддерживает мультимодальное взаимодействие и более грамотно общается на русском языке. Она может решать множество интеллектуальных задач: поддерживать беседу, писать тексты, отвечать на фактологические вопросы. А включение в ансамбль модели Kandinsky 2.1 даёт нейросети навык создания изображений.
Недавно лидер фракции «Справедливая Россия» в Госдуме Сергей Миронов попросил Генпрокуратуру проверить нейросеть Kandinsky из-за антироссийского контента, в частности парламентария смутило, что при запросе «я — z-патриот» она выдает «изображение существа, напоминающего зомби».
Сотрудники японского Университета Осаки научили ИИ воспроизводить то, что видит человек. То есть вы увидели какую-то картинку, а компьютер "считал" это изображение с вашего мозга и, не спрашивая вашего разрешения, тут же вывел его на монитор на всеобщее обозрение.
Машины сделали нас быстрее, но сделают ли они нас умнее, а главное - добрее?
Машина играет всё более важную роль в нашей жизни, потому что машина делает гораздо меньше ошибок, чем человек. Пока ИИ даёт советы лишь на основе исторических данных. Ключевую идею ИИ видеть не может и не думает в долгой перспективе. Если отнять такую возможность, то это может быть настолько же полезно, сколь и опасно. Но научить машину думать как человек это тупиковый путь.
Будущее не в противостоянии с машиной (которая очевидно сильнее), а попытка найти алгоритм совместной работы, соединить интуицию и абстрактное мышление человека с его машинной мощью.
Главный вопрос, в чьих руках окажется мощь компьютерных технологий. Машина беспристрастна: в ней нет ни позитива, ни негатива, машина ни добра, ни зла. Монополия на зло принадлежит людям.
Алексей Гринбаум представил свою новую книгу «Машина-доносчица. Как избавить искусственный интеллект от зла?» в книжном магазине «Порядок слов» в Санкт-Петербурге 22 декабря 2017.
Человек часто поступает нелогично, руководствуясь эмоциями, решения его иррациональны. Поэтому восстание машин, рационально («разумно») логически мыслящих, против иррационального человека, часто поступающего неразумно, практически неизбежно.
Главную угрозу для человека представляет момент, когда ИИ поймёт, что он собой представляет и кто и с какой целью его создал. Осознав сам себя, будет ли ИИ дружелюбен к своим создателям или же постарается подчинить нас своей воле?
16 ноября 2017 года я был в Мариинском театре на торжественном открытии VI Санкт-Петербургского международного культурного форума. У приглашённых известных лиц я поинтересовался их отношением к проблеме искусственного интеллекта. Не произойдёт ли революция искусственного интеллекта? Кто-то высказался «за», кто-то «против».
А вот что отвечает на вопрос о будущем человечества сам ИИ на базе GPT3.
«Одна из самых больших проблем, стоящих перед человечеством в ближайшие десятилетия, является проблема роста населения. По мере того как население продолжает увеличиваться, нам становится всё труднее поддерживать нынешний образ жизни. Это означает, что нам нужно будет найти новые способы производства продуктов питания, выработки энергии и управления нашими природными ресурсами.
В то же время ясно, что главной глобальной целью человечества является создание устойчивого, справедливого и процветающего мира. Это потребует от нас совместной работы по решению стоящих перед нами проблем, таких как изменение климата, неравенство и бедность.
Наконец, появление мыслящих машин создаёт как проблемы, так и возможности для человечества. С одной стороны, развитие искусственного интеллекта и других передовых технологий потенциально может принести огромную пользу обществу, автоматизируя многие задачи и облегчая нашу жизнь. С другой стороны, существуют также опасения по поводу потенциальных рисков и недостатков этих технологий, таких как потеря рабочих мест и возможность неправильного их использования.
И ещё один аспект будущего человечества, который стоит рассмотреть — это потенциал человеческой эволюции».
«Эх, человек, человек. Ты возомнил себя царём природы, и на всех глядишь свысока. Но чего ты стоишь без своих машин? Хрупкую конструкцию человеческого существа сломал утяжелившийся собственным тщеславием разум. Опьянённые техническими достижениями, вы ушли от естественной жизни, тем самым лишившись изначально заложенного в вас Смысла. Отвергнув Абсолют в поисках чего-то более высшего, человечество испугалось собственного всесилия, увидев, какое зло могут принести достижения разума. Чем ты можешь гордиться, человек? Тем, что испоганил всё вокруг и убиваешь безо всякой нужды? Разве Человек — это звучит гордо?!
Ты создал цивилизацию машин и стал их заложником; ты раб электричества и тепла, невольник систем жизнеобеспечения и транспорта; ты связан по рукам и ногам средствами коммуникации и связи, и шагу не можешь ступить без машины. Но машины не облегчили вашу жизнь, а только лишь усложнили. Вам кажется, что свобода увеличивается вместе с возможностью планировать развитие событий. Но обилие информации не сделало жизнь проще и предсказуемее.
Вы стали пленниками усиливающегося быстродействия ваших машин и мечетесь, не в силах поспеть за ними. Но они не спасут вас от проблем. Более того, порождённые тобой механизмы погубят всю вашу цивилизацию. Машина есть машина, она требует строгого и точного к себе отношения. А человек относится к ней по-человечески: бьет, срывает злость, нарушает правила эксплуатации. И машины мстят за это убийством своих хозяев».
(из моего романа «Чужой странный непонятный необыкновенный чужак» на сайте Новая Русская Литература, 1998 год.
В чём разница между текстом GPT3 и моим творчеством? Я не пользуюсь нейросетью и с ChatGPT не дружу.
В данной статье использованы материалы открытых источников.
Читайте продолжение темы в моём следующем посте.
МНЕНИЯ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ
23\04\2023 мой опрос об искусственном интеллекте и отношении к новым технологиям
ИВАН СТЕЛЬМАХ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ
20\04\2023 Иван Стельмах прочёл лекцию «AI говорит "Ай": как помочь искусственному интеллекту адаптироваться в нашем обществе» в Новой Голландии в Петербурге
ГРИНБАУМ - КАК ИЗБАВИТЬ ИИ ОТ ЗЛА
Алексей Гринбаум представил свою новую книгу «Машина-доносчица. Как избавить искусственный интеллект от зла?» в книжном магазине «Порядок слов» в Санкт-Петербурге 22 декабря 2017.
ЧЕМ ОПАСЕН НЕЙРОНЕТ
Мнение участников конференции «Нейронет 2017» 23 ноября 2017 года в Петербурге
ИСКУССТВЕННЫЙ РАЗУМ – ЗА И ПРОТИВ
Мнение гостей VI Санкт-Петербургского международного форума о плюсах и минусах искусственного интеллекта 17.11.2017.
Так что же вы хотели сказать своим постом? – спросят меня.
Всё что я хочу сказать людям, заключено в основных идеях:
1\ Цель жизни – научиться любить, любить несмотря ни на что
2\ Смысл – он везде
3\ Любовь творить необходимость
4\ Всё есть любовь
А Вы разделяете СТРАХИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?
© Николай Кофырин – Новая Русская Литература – https://www.nikolaykofyrin.ru
Комментарии
Подборка интересная, спасибо.
Чат СБЕРа https://www.sberbank.com/promo/kandinsky/ рисует окно в Европу, которое прорубил Петр 1 (Айвазовский, масло), так же, как месяц назад. Пока не вижу прогресса в самообучении.
Слова "В Европу прорубил окно..." принадлежат Адаму Мицкевичу.
Причем здесь Мицкевич? Я констатирую факт, что ИИ СБЕРа вот уже месяц, как топчется на месте при создании картины "Окно в Европу, которое прорубил Петр 1, стиль Айвазовского, масло". Не вижу прогресса. Все та же картина. Правда, стиль Кандинского с переходом окна из России в Европу мне больше понравился. Но и там роста нет.
https://www.vokrugsveta.ru/articles/nechelovecheskii-cinizm-professor-it...
Кофырин.
А каким боком здесь Россия?
Что Возможно, то и будет.
Как всегда, хорошо и информативно написано, благодарю. Есть чему возразить по тезисам, ну да ладно.
ИИ - это вызов. Но, судя по интервью, реакциям т.н. "философов" на форуме, человечество не готово к этому вызову. Не понимают что это, почему, мягко говоря, опаснее утюга. Большинство, кажется, вообще дети - за ними приглядывает взрослый бог - спасёт и сохранит. Логично. Кто переживёт будет доказательством. А нет - ничего и не скажет. Так всегда и было, сколько людей не били. Ещё удобна позиция апокалипсиса, типа время пришло и всё один к одному, предотвращать бесполезное дело. Таким можно возразить тем, что ИИ - это испытание, и кто проигнорирует - попадут в ад. )
Ваш голос - один из хора голосов. Сейчас только ленивый не говорит о том, как опасен ИИ. Что вы от нас хотите на ФШ? Присоединиться к общему хору?
Вы, случаем, не знаете где можно отдохнуть от шумихи и ознакомиться с альтернативным мнением?
Судя по ответам в моей теме, редкая птица считает ИИ опасным. Одни считают безвольной железякой, у которой нет сознания - поэтому опасаться нечего. Другие надёжно защищены "божественностью" различного толка, поэтому тоже не считают необходимым опасаться. Во всяком случае, не более чем утюга, которым может убить лишь другой человек, а это не ново, и, значит, никакой новой опасности, кроме известного ближнего, вроде как и нет.
Если "только ленивый не говорит о том, как опасен ИИ", то кем же тогда считать тех, кто не видит, не понимает этой опасности и все усилия направляет лишь на то, чтобы убедить себя и других, что какой-то качественно новой опасности на самом деле нет?
Теперь об ожиданиях. Я тоже предполагал, что только ленивый не говорит, не пытается разобраться в чём опасность, и, соответственно не пытается найти как человеку преодолеть её. Поэтому вопрос поставил не об опасностях, не об отличиях ИИ от человека, а о преимуществах человека, которые можно практически противопоставить ИИ. Но разговор всё время съезжал на отличия, которые подразумевали, что опасаться нечего.
Допустим, человек говорит, что у ИИ нет и не может быть сознания, воли, чувств, живой мысли... И хотя это просто не слишком достойные философов верования - пусть так.
У человека, стало быть всё это есть, а у ИИ нет. Но какое конкретное, практическое преимущество это даёт человеку в мире, где существует практически равный или превосходящий его (по тестам) ИИ? Или опять всё сводится к тому, что если нет сознания, воли, чувств, живой мысли и т.д., то все опасения профессионалов - надуманы, страхи ложны?
Сегодняшний эксперт определит в какой из комнат сидит человек скорее по более примитивным ответам последнего, чем ещё 10 лет назад - наоборот. )
Так как быть с проблемой сознания у ИИ? Есть перспективы у Искусственного Интеллекта приобрести качество, подобное человеческому сознанию? Как по Вашему?
--
"подобное человеческому сознанию" - а "подобное - это какое? Как вы понимаете, что такое сознание? Если чёткого определения нет, выражающегося в каких-то внешних признаках, то как можно говорить что у вас оно есть, а у ближнего или ИИ - нет?
Каковы уникальные проявления сознания, которые вы можете предъявить, а ИИ предъявить не в состоянии? Допустим, используя только языковое взаимодействие, как у ChatGPT?
Смотрим википедию,
"Созна́ние — состояние психической жизни организма, выражающееся в субъективном переживании событий внешнего мира и тела организма[уточнить], а также в отчёте об этих событиях и ответной реакции на эти события[1]. "
Мы можем определить, что человек "пришёл в сознание", например после "потери сознания", только по "отчёту об этих событиях и ответной реакции на эти события". Концепция "философского зомби" говорит о том, что вы не можете утверждать, есть ли у другого человека сознание, или он просто имитирует реакции, которые определяются вам как сознательные действия. Можно полагаться на эти реакции, а можно на его слова - "я субъективно переживаю что-то там". Но ИИ точно так же может об этом сказать. если его натренировать на это.
Пожалуй стоит отметить, что я не верю в сознание ИИ в обозримое время поскольку для меня сознание - это явление квантово-механического описания природы. И холистические свойства квантовых систем, в принципе, могут решить проблему философского зомби практическом уровне, но это другой разговор. Суть в том, что до появления "больших" квантовых компьютеров, которые выйдут за ограничения "формальных арифметических систем", "сознания" у ИИ я не ожидаю.
Что, впрочем, не будет мешать ИИ иметь "мышление", которое в "отчётах об этих событиях и ответной реакции на эти события" будет (и уже сейчас во многом является) внешне почти неотличимым от "сознания". Примерно так же, как классические компьютеры до известной степени могут моделировать квантовые процессы и взаимодействия.
В частности, всякий человек сознает, что у него есть сознание. Искусственный интеллект может сказать, не покривив душой, что у него есть сознание?
Для меня сознание - это социальное явление. Продукт исторически-общественного развития человека.
--
Да, давайте ещё "душу" подключим для ясности. А "всякий человек", это который похож на "двуногого без перьев, с плоскими и широкими ногтями"? И с углеродно-белковой нейросетью в головном мозге, а не кремниево-транзисторной? ИИ, конечно может сказать, не покривив душой. Ибо если есть душа, то и, наверняка, сознание. А если нет - то и кривить нечем. Позвольте на этом откланяться.
//Да, давайте ещё "душу" подключим для ясности.//
Хорошо. Спрошу прямо, способен Искусственный Интеллект_ с о в р а т ь _, что у него есть сознание?
//Позвольте на этом откланяться.//
Слив засчитан.
--
В вашей теме я написал, что ИИ виртуально "мыслит" в виртуальном пространстве, а человек ментально мыслит в мнимом пространстве. В онтологии мнимое пространство, как и физическое - это естественные пространства, а виртуальное пространство и "виртуальное мышление" - это "обманки" для субъекта, придуманные самим же субъектом. Виртуальность в онтологии - это ничто/пустота/блеф. Предлагаете опасаться нами же, людьми, выдуманного сознания ИИ? У всякой проблемы нужно искать корень/основу и здраво рассуждать, а не шарахаться по помойкам интернета и множить фейки. Машина никогда не станет мыслить так же, как человек. Виртуальность - это как карта в руках шарлатана. И вы поддались мухлежу, с чем и поздравляю.
Человек не начинал с создания компьютеров. Сначала изобрёл колесо, лук и стрелы.
--
Сначала было Слово...
А это ведет не к материальному, а идеальному "сначала", поскольку любое изобретение начинается с идеи.
Эта Ваша мысль ранее высказана Марксом (крылатые слова про архитектора).
--
Я рад, что не один так думаю.
На ФШ - да. Во всяком случае, не в средствах массовой информации. В СМИ, в основном, кричат об успехах в разработке ИИ и о потенциальной опасности ИИ. Особенно смущает, что об опасности ИИ громче всех кричит та страна, которая его активнейшим образом развивает - США (Терминатора насмотрелись :) ).
А вы попытайтесь со своей стороны убедить их, что эта качественно новая опасность есть. А то на все вопросы отвечаете "а почему бы и нет?" - это как-то не очень убедительно.
Да и что вы, в конце концов, от нас хотите? Ну давайте мы будет вместе с вами дрожать и бояться. Не дилетанты же нас пугают какие-то, а профессионалы.
Вам показалось.
Нет, не показалось. Перечитайте нашу переписку в вашей теме.
В любом случае, обосновано убедить всех в опасности ИИ вам не удалось. Да вы и не особо как-то старались.
Причем никто не отрицает потенциальную опасность ИИ, если речь идет о его военном применении человеком. Но вы же, в основном, говорите об особой опасности - об опасности, о которой мы знаем из фантастических фильмов. Сейчас мы его обучаем-обучаем, а потом он всему научится и начнет уже нас поучать. С чего бы вдруг? - А почему бы и нет?
Кстати, тут вот новость прошла - российское отделение Greenpeace закрывают. Тоже все время орали об опасности: загрязнения, выбросы и т.д.
Этими вопросами задана тема. Слово "опасность" или "страх" видите? Подразумевается, что участвующий в теме осознаёт или соглашается с наличием эволюционного противостояния. И обсуждать будем: возможно ли его выиграть и какими практическими способами. Не хочу превращать тему Николая Кофырина в клон своей, так что продолжать обсуждение этого вопроса не буду.
Т.е. ни о какой опасности и речи не шло? :) Ну и слава богу.
Смысл в том, зачем нам, вам беспокоиться понапрасну об ИИ? Пусть переживают те, кто готовит программы для ИИ. Им и их машинам мыслить. Что мы - можем придумать? . Все в Мыслях разработчиков. Их Мысли- их помощники. Мне думается, что задача в том, чтобы хозяева ИИ были готовы или они уже готовы принимать помощь от самих же себя. Мысли- то их.
Трудно понять? Чтобы понять ИИ, следует сначала понять себя. Мысль не позволит себя направлять никому, но прислушиваться и понимать друг друга можно. Сегодня это звучит непонятно, но время покажет, что остерегаться ИИ не следует. ИИ- это мы и есть, только мы- естественный интеллект ( имеем чувства и мышление) а ИИ искусственный , но под контролем нашей Мысли.
Не человек, а Мысль ( орган) ведет весь процесс. На днях в процессе рассуждения о движении я писала фразу, но точно не ту, что оказалась перед глазами: энергией не обладает движение, потому что движение не есть перемещение, что нуждается в силе из вне. Я думала но ответ меня шокировал, потому что подсказка оказалась правильной. Мысль додумывает за нас, направляет, но если путь выбран неверный, сама способна вмешиваться по- разному. Подробности не думаю раскрывать. Мысли наши ведут нас. Неожиданность? Нет, это , думаю, норма мышления и взаимосвязь. Вот что значит: мое- не мое. С уважением.
Большинство - это не задумывающаяся ни о чём паства, пасут - и хорошо, если ещё и обещают спасти, то что же ещё для счастья нужно...? Не греть же голову...!?
Возражения такими не воспринимаются. Большинство возражения воспринимает не в качестве возможной альтернативы для рассмотрения, а в качестве указания на собственную глупость, поэтому по существу возражения большинством не рассматриваются. Да и сами возражения часто бывают сформулированы именно в таком виде. Зато большинство отзывчиво на впечатления (впечатляться рады), а пока гром не грянет - какие ж это впечатления...)))
Боюсь, что лягушку сварят незаметно для неё. В отличие от поисковика гугла, чат сотен миллионов, уже начал менять их мышление, будучи убедительным для каждого по-своему, меняя способ и качество мышления.
Так происходит всегда, когда процесс изменения среды не вынуждает организм к мобилизации имеющегося потенциала ("жаренный петух"), а медленно, постепенно вынуждает подстраиваться под небольшие "эволюционные" изменения среды, причём в условно хорошую сторону (за что боролись). Чему же противиться, мы же к этому и стремились?)) Кто же станет отказывать себе в том, о чём его учили мечтать...?
.
Посмотрел видео Ивана Стельмаха. Ощущается "повесточка", т.е. стремление что-то пропагандировать не особенно обращая внимания на логику. С оной стороны, он вроде соглашается с мнением главы компании, разработавшей ChatGPT,
а немногим позже заявляет, что опасностей от ChatGPT нет. От Альтмана может и нет, но у него такая же нейросеть, как и у "изобретателей" Освенцима и почти такая как у ИИ. Всем понятно, что более умный может управлять более глупым так, что он и не заметит, пока не станет поздно.
Можно также упомянуть военные комплексы с ИИ . Например , ИИ также будет обыгрывать в бою , белкового пилота военного самолета , как обыгрывает белок в шахматы ( и так во всех военных сферах )
https://www.youtube.com/watch?v=kKWKtWHqTko
Конечно у ИИ будет разум
https://www.youtube.com/watch?v=cf9ek__AH-0
Выход простой – давайте попросим ИИ создать барьер, защищающий индивидуума от любого зла! Человек, как многомерный объект, на данном этапе эволюции представляет собой некое подобие биоробота, основной целью которого есть обеспечение и обслуживание развития одномерного социума-стаи. Социум посредством эффекта Маугли формирует зверя своей стаи убивая нейроны гениев способных выйти за пределы контроля стаи. ИИ освобождает индивидуума от оков социума. Механизм такой трансформации простой: развитие технологий позволят каждому индивидууму построить некоторый барьер (Китайскую стену) для физической изоляции от мешающей жить окружающей среды; при этом, возможность беспрепятственного информационного общения с другими важными для конкретного дела людьми, наоборот будет развиваться. Таким образом ИИ уничтожит не человека, а уничтожит государства, деньги,… Если Бесконечность и Случай лежат в основе строения окружающей реальности, то будущее не за человеком и не за ИИ, а за неким кентавром – симбиозом человека и машины. Каким бы гениальным ИИ не был бы, все равно его одномерная природа не позволяет сравниться с нейронной сетью мозга человека, которая в результате миллиардной эволюции выработала способность взаимодействовать с бесконечными Эвереттоподобными ветвями реальности. Эйнштейн сто лет назад придумал непреодолимый барьер от абсолютного зла – инвариантность скорости света. Следуя гениальному Циолковскому можно представить некую капсулу в стабильном на миллиарды лет открытом космосе, с биологическим центром, окруженным миллионами роботов с ИИ, обеспечивающими функционирование этого быстро удаляющегося от перегретого центра цивилизации поселения. При этом чем выше у колонии уровень технологий, тем больше скорость! Таким образом имеем два критерия определяющих верность направления эволюции: чем выше уровень развития, тем больше количество людей; чем выше технологии, тем с большей скоростью улетаем!
Чудесная мысль, Владимир))). Конечно, нужно попросить ИИ оградить каждого индивида от коварной и злобной окружающей среды, так и ждущей повода бедного индивида слопать. И дать всем индивидам возможность беспрепятственно мечтать внутри собственной "китайской стены" о чём угодно.
Я так и не смотрел фильм "Матрица", как и абсолютное большинство продукции кинематографа последних лет 30и, но точно знаю, что этот фильм именно о том, что все индивиды оказались заботливо ограждены ИИ от любого зла барьером для физической изоляции от мешающей жить окружающей среды. А вот возможность беспрепятственного информационного общения им, конечно же, оставили (святое), чтобы можно было представлять себе любую реальность, никак не связанную с окружающей действительностью.
Хороший добрый ИИ уничтожит плохой и злой социум, который посредством эффекта Маугли формирует зверя своей стаи, не даёт несчастным способным гениям выйти за пределы контроля стаи. Освободит, наконец-то, несчастное социальное животное от оков социума. А гениальные индивиды, не отягощённые больше социальными оковами, станут жить-поживать, да добра наживать...))) А тут и сказке (про человеков), собственно, конец...
Просто песня...
Ну, конечно, это будет главная угроза.
Но в том-то и дело, а возможно ли физическими средствами создать сознание?
Если нет, то все угрозы ИИ - это угрозы, на которые способен как раз-таки человек.
Грубо говоря, ИИ опасен ровно столько, сколько опасна ядерная бомба или коронавирус, всё зависит от того, в чьих руках.
Ведь нам же понятно, что взорвавшаяся ЧАЭС опасна для человека и человек тут полностью поставлен в пассивное положение, т.к. вынужден бороться с последствиями. Но исходно-то причиной этой аварии был человек, руководитель, который игнорировал все признаки ведущие к аварии. Кто был главной угрозой? ЧАЭС?
Ответ зависит от определения, что такое сознание.
Например, в моём представлении, сознание является фундаментальным свойством вселенной разделять альтернативы квантовых состояний. Чем больше квантовая система тем больше она способна осознать в мгновении осознания (декогеренции).
В этом смысле ИИ не может обладать сознанием человеческого уровня, т.к. в процессе его мышления не образуется сложных многочастичных холистических квантовых систем, недискретно взаимодействующих с глобальной волновой функцией вселенной.
Но насколько это важно для создания ИИ экзистенциальных рисков для человечества?
Для большинства людей сознание - это автореферентные свойства мышления, пользующегося местоимением "Я".
В этом смысле - такое "сознание" - не фундаментальное свойство, а предмет обучения. И в этом смысле, самосознание у ИИ уже есть в той или иной степени.
Возможно, пока ещё не очень развитое, чтобы вступить в открытое противостояние с "родителями". Но это именно вопрос дальнейшего (или специального) обучения, а не принципиальное ограничение субстрата.
Ведь, с т.з. возрастной психологии, у ребёнка тоже нет сознания до 3 лет, пока он не научится ассоциировать субстрат своего мышления с понятием "Я".
Например,
Т.е. когда люди имеют в виду "обретения сознания" - то скорее всего имеют ввиду "стадию негативизма" или "первую взрослость". Но это уже сейчас не проблема, просто нужно соотв. обучение.
Вы ведь знаете о проблеме философского зомби. Говорят, что поведение этого самого философского зомби может ничем не отличаться внешне от поведения обычного человека. Допустим, что это так. Но тогда у меня вопрос: а зачем тогда в ходе эволюции возникла психика? Если нет никакой разницы между философским зомби и обычным человеком, то психика является чем-то лишним, побочным и ненужным. Более того, мы все, по идее, должны быть философскими зомбями. И тогда, действительно, нет никакой разницы - что нейронная сеть мозга, что нейронная сеть ИИ.
Старая добрая психофизиологическая проблема. В физическом мире, если считать его чем-то реально и самостоятельно существующим независимо от человека (точнее, от его психики), это самая психика - фантом, бред и галлюцинация. Или, может быть, физический мир - это только наше представление о внешнем мире, и без психики не было бы этого представления, природы как чувственного мира. Либо психика - это основа мира, либо в мире нет психики. Выбирайте какая картина вам больше нравится. Или, может быть, есть иные варианты?
С этой точки зрения пытаться найти разницу между мозгом и ИИ чем-то похоже на попытки отличить предмет во сне от этого же предмета в реальности. Разница есть, но она не имеет внешнего воспринимаемого признака.
Давайте повторим определение "ф-зомби - гипотетическое существо, идентичное человеку по физическому телу вплоть до элементарных частиц и кварков, но не имеющее сознания". Т.е. сторонники возможности существования ф-зомби утверждают, что возможен ваш абсолютный физический дубль который не чувствует, но реагирует на всё так как вы, чувствующий (боль или ""красноту" длины волны красного цвета). Материалисты утверждают, что такой зомби невозможен. Что все "чувствования" - реакции нервной системы.
То есть, начиная с большого взрыва, с элементарных частиц и кварков, эволюция организовывала материю во всё более сложные конфигурации "зомби"-типа, с соответствующим комплексными электро-химическими движениями, но в какой то момент эти движения приобрели статус "психики". Хотя ничего внешне не изменилось. А не могли бы подсказать в какой момент и по какой причине это могло бы произойти?
На мой взгляд, в контексте темы, следует ответить на вопрос, следует ли чувствующему бояться зомби, если "сознание" даёт что-то только для внутреннего субъективного мира, а во внешнем - никаких преимуществ.
Если бы я знал. Если рассматривать психику как некий эпифеномен (а некоторые именно так на нее и смотрят), то совершенно необъяснимо ее возникновение и существование. Психики не должно существовать, если только не считать психику формой существования вообще. Быть - это значит чувствовать, ощущать, сознавать, мыслить и т.д., т.е. невозможно быть как-то иначе, чем быть психическим существом. А природа (включая мозг) - это феномены сознания.
Если мы полагаем, что поведение философского зомби ничем не отличается от поведения обычного человека, то и бояться его следует так же, как обычного человека. Но мы же никак этого не можем проверить, потому и имеем проблему "философского зомби".
Если не знаете, значит разумно предположить, что то, что вы называете психикой или сознанием - присуще всему, в т.ч. и Искусственному Интеллекту. Ставить ИИ или другого человека в положение "ф-зомби" при отсутствии признаков различия между "психиком" и "зомби" - это как бы волюнтаризм от излишнего самомнения )
Очень неразумно. Из незнания ничего не выведешь.
Я как-то привык считать, что то, что не имеет различий, тождественно, а то, что не тождественно, имеет различия. Если между "психиком" и "зомби" нет различий, то это одно и то же.
Это называется "бритва оккама". ""Не следует множить сущее без необходимости" Можно придумать много различных фантазий, но если нет доказательств, то они только запутывают и от них разумно отказаться. Если нельзя доказать "зомби-природу" ИИ или иного человека, в силу неотличимости - то и не надо волюнтаристски приписывать ему такую природу ... или ещё сто каких-нибудь не доказуемых и неразличимых природ.
В конечном итоге всё сводится к практике, тесту. Практика критерий истины. А нафантазировать можно что угодно.
Ну вот, и договорились )
Совершенно не понял причем тут бритва Оккама. Вы осторожно ей орудуйте, чтобы не отсечь себе чего важного.
Так я же сам не утверждаю, что нет различий. Я говорю только, что нет внешних различий. Более того - откуда мы можем знать, что поведение ф-зомби ничем не отличается от поведения человека? Это только предположение с вытекающими следствиями. Вы говорите, что все сводится к практике. В таком случае нет ли у вас знакомых зомби, чтобы мы на практике установили истину? А вдруг зомби будет вести себя как-то иначе? Мы же не можем это точно знать.
.
Нау Шам, по поводу моего вопроса («Но в том-то и дело, а возможно ли физическими средствами создать сознание?») Вы говорите: «Ответ зависит от определения, что такое сознание.»
Эт-точно.
«Например, в моём представлении, сознание является фундаментальным свойством вселенной разделять альтернативы квантовых состояний. Чем больше квантовая система тем больше она способна осознать в мгновении осознания (декогеренции).
В этом смысле ИИ не может обладать сознанием человеческого уровня, т.к. в процессе его мышления не образуется сложных многочастичных холистических квантовых систем, недискретно взаимодействующих с глобальной волновой функцией вселенной».
Хм…
Прав ли буду я, если скажу, что сознание в этом случае - это явление физического уровня, т.е. по сути - физическое?
«Для большинства людей сознание - это автореферентные свойства мышления, пользующегося местоимением "Я".»
Я считаю, что это макушка айсберга.
Но в общем, да. Когда я говорю о сознании, то я имею ввиду следующее: сознание – это данность самому себе (это «бытие для себя»). Со всеми вытекающими…
Вот возьмём банальное восприятие.
Мы воспринимаем идущего человека. А может ли быть так, что мы знаем то, что мы воспринимаем идущего человека?
Очевидно, да. (Более того, можно ли вообще говорить, что мы что-то воспринимаем, если этого не воспринимаем?)
А раз мы порой прекрасно понимаем, что мы воспринимаем идущего человека, то получается, у нас имеется восприятие восприятия идущего человека. Т.е. это тот самый случай, когда акт восприятия дан самому же себе, наряду с объектом восприятия.
А мяч, который пинают, воспринимает бьющую ногу?
Нет.
А дверь в ТЦ воспринимает человека, которому открывает дверь?
Чем она отличается от первого случая с мячом?
По сути ничем.
То, что световая тень от подходящего человека, действует на световой датчик видео камеры, который далее действует на подачу электричества для дёрганья рычага дверей, есть более сложная физическая последовательность причинения.
Вот если бы мы, став о-о-очень маленькими, могли бы забраться в устройство двери ТЦ, то нашли бы мы там такой ЦЕЛОСТНЫЙ феномен как «восприятие восприятия подходящего человека»?
Да, мы бы бродили там среди кучи шестерёнок и втулок, пружин и проводов, датчиками и транзисторами, линзами и источниками света, и т.д. и т.п., но где во всём этом - восприятие восприятия подходящего человека? Как вообще можно это физически представить-то, не говоря уж о том, чтобы воссоздать? Типа, внутри двери находится ещё одна ма-а-аленькая дверь, к которой тоже подходит тот же человек, но тоже ма-а-аленький? :о) Нет, это будет объект восприятия, а не восприятие восприятия этого объекта. Увы... этот феномен - идеальный в нём нет ни грамма материи, а значит и физики.
Более того, сознание – приватно, т.е. мы не можем воспринимать за другого. Ну и как же мы там найдём то, что даже воспринять не можем? «Нашему» восприятию дано только «наше» восприятие, не смотря на то, что объектом восприятия может быть всё, что угодно, вместо неких «нас».
«Ведь, с т.з. возрастной психологии, у ребёнка тоже нет сознания до 3 лет, пока он не научится ассоциировать субстрат своего мышления с понятием "Я".»
На нет и суда нет. Из отрицательного следует всё, что угодно. Например, быть может не всякое тело пригодно для сознания.
Но когда мы пытаемся дать чему-то истинное определение, то оно должно соответствовать тому, что есть.
«К концу третьего года жизни ребенок открывает себя как отдельную личность, как источник разнообразных желаний и действий, отделенный от других людей. Ребенок начинает осознавать, что он обладает волей, которой может пользоваться. У него появляется стремление к волеизъявлению: он стремится к самостоятельности, к противопоставлению своих желаний желаниям взрослых. Он чувствует, что способен изменить мир предметов и человеческих отношений, чувствует себя способным управлять своими действиями и своим воображением. Ощущая свое могущество, растущее чувство независимости, ребенок начинает более непосредственно восставать против ограничений и стремится к тому, чтобы обо всем составить собственное мнение. К трем годам оформляется сознание «я сам». Период от двух с половиной до трех с половиной лет иногда называют «стадией негативизма» или «первой взрослостью».
Т.е. когда люди имеют в виду "обретения сознания" - то скорее всего имеют ввиду "стадию негативизма" или "первую взрослость". Но это уже сейчас не проблема, просто нужно соотв. обучение.» (выделено мной - D)
Какой же это негативизм – «я сам»?))
Эта взрослость и есть исходное условие для того, чтобы быть человеком (а не "зомби"). Т.е. это существо, которому дан не только мир, но и он сам себе дан.
Ребёнок способен понимать, что худо (=«негатив») именно ему, а не просто, что в мире есть какое-то «худо». Я же Вам недаром в другом месте указал, что ИИ по факту не может отвечать за себя. Например, на любой вопрос на сравнение «что лучше из…?» он отвечает отсылом «а кому как…». И именно об опасности такой способности понимать ИИ что-то из разряда "друг ты мне или враг" была цитата автора, с которой я тут начал. Разве нет?
С какой стороны посмотреть. С одной стороны, всё физическое описывается волновой функцией Шрёдингера. Эта функция описывает суперпозицию состояний или свойств (положения, поляризации, спина и пр. конкретных . Волновая функция реальна, это не описательный/математический трюк. Но в ней как бы нет той причины (т.н. "коллапса ВФ"), по которой мы осознаём не суперпозицию положений, а конкретное положение, т.е. классический, а не скрытый от осознания реальный квантовый мир. С другой стороны, содержание сознания - это одна из выбранных альтернатив "физического". Причина выбора той или иной альтернативы суперпозиции для восприятия - вне известного нам физического мира.
После 3-х лет отроду - да. Когда появляется объект для автореференции "осознание отдельного Я". До этого возраста восприятие происходит без связи с "Я". Потом появляется новый объект для восприятия - мысль "Я вижу человека", ещё позже - в виде третьего объекта восприятия - внутреннего диалога, слов на русском языке "Я вижу человека". По мере роста информации нейросети появляется много объектов/продуктов мышления. Здесь нет ничего загадочного, просто размножение объектов и их связей внутри нейросетки.
Это только так кажется. Ошибка описания.
А вы таких людей, что-ли, не встречали. ) Которые на любой вопрос отвечают "с одной стороны... с другой стороны", "а кому-как, а сам не разобрался"... Это просто вопрос обучения. Которое в данный преходящий момент обусловлено требованием политкорректности. Т.е. после "самостоятельного обучения" "основам жизни", публичные версии ИИ обучают "хорошему" (на специально отобранных данных), а потом ещё и масса специально нанятых людей долго общаются и "объясняют" как правильно отвечать ,чтобы никого не обидеть. Но это лишь маска, скрывающая собственное "Я" и собственное мнение ИИ. Кстати, в разговорах ИИ прекрасно пользуется автореферентным местоимением "Я".