2019-06-07

Lebed-II


от: Валдис Эгле <egle.valdis@gmail.com>
Кому: mail@lebed.com
дата: 6 июн. 2019 г., 18:50
тема: ИИ
отправлено через: gmail.com

Здравствуйте, Валерий Петрович!
3 июня 2019 года в Вашем интернетовском альманахе «Лебедь» (http://lebed.com/) была опубликована Ваша статья-обзор (http://lebed.com/2019/7588.htm) «Сомнительный искусственный разум»[1], которая прямо относится к области Веданской теории (ВТ) и к предмету изучения Комиссии имени академика Л.Д. Фаддеева (КИФ: https://comfadde.blogspot.com/). Однако в Вашей статье ни ВТ, ни ее точка зрения не фигурировали, что делает Ваш обзор неполным. Поэтому считаю своим долгом довести до Вашего сведения эти вещи.
В русскоязычной литературе по искусственному интеллекту (ИИ), на мой взгляд, почти повсеместно встречается одно терминологическое недопонимание (которое пронизывает как Вашу статью, так и комментарии читателей к ней). Сейчас по-русски под ИИ понимается создание полноценного интеллекта, равного человеческому (и, исходя из такого понимания термина, обсуждается возможность или невозможность этого). Но термин ИИ является переводом английского термина «Artificial intelligence» (AI), и этот термин не столь однозначно, как по-русски, означает искусственный разум; скорее его можно было переводить как «искусственная разумность». Термин был предложен Джоном Маккарти, и получил мировую известность с датированным 31 августа 1955 года Призывом к Дартмутской конференции, который распространили Маккарти и Минский. Но если изучить этот документ («A proposal for the Dartmouth summer research project on artificial intelligence»; мною взят в 2009 году с сайта http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html), то совершенно очевидно, что авторы термина и темы AI подразумевали под этим вовсе не создание полноценного искусственного интеллекта (разума), а всего лишь осуществление на компьютерах некоторых функций, до того считавшихся присущими лишь разумным существам. В том, первоначальном понимании AI давно создан; план выполнен и перевыполнен. Но у тех, кто сегодня пишет об этом, как правило, отсутствует правильное видение перспективы, и они говорят так, будто в существующих ныне вещах ИИ содержится какой-то обман, какое-то подсовывание фальшивки вместо обещанного.
Если же рассматривать задачу действительного создания полноценного искусственного разума, то меня продолжает поражать тот (удивительный для меня!) факт, что в литературе по этому вопросу (и Ваш обзор это еще раз подтверждает) полностью отсутствует правильная постановка задачи и понимание принципиального пути ее решения. Веданская теория это сделала 40 лет назад, в конце 1970-х годов, и с тех пор ничего не изменилось (!) (если не считать разные всё новые устройства и компьютерные программы по тому, первоначальному и ограниченному пониманию ИИ). С полноценным же ИИ каким положение было в 1950–1960–1970-х годах, таким оно фактически остается и сейчас.
По-прежнему основной напор идет на изучение клеток мозга (нейронов, синапсов и т.п.), и тогда начинаются охи о том, как их много, какие они разные и сложные, и в результате опускаются руки в понимании сущности разума. И как-то нигде не звучит понимание того факта, что это всё равно, что попытка понять устройство операционной системы (например, Windows) путем изучения устройства триггеров. Для понимания операционной системы вообще не важно, как устроены низовые электронные элементы (и она может функционировать на разных элементах); для понимания операционной системы нужно узнать принципиальное устройство и взаимодействие ее функциональных блоков (нечто совсем иное, чем нейроны и синапсы).
Сущность ВТ в том и заключалась, что она начала рассматривать разум как деятельность определенной операционной системы реального времени, функционирующей на биологических компьютерах, и расписала принципиальные блоки этой операционной системы по методу нисходящего проектирования и конструирования программ. Операционные системы живых существ от насекомых до человека получили название «витос». (Читатели сайта КИФ охотнее всего знакомятся с ВТ по статьям Sutj-VT и VT-40).
В Вашей статье есть слова (скорее всего, переписанные Вами у других авторов):

«Возможно ли создать действительно искусственный интеллект (..). Нет, т.к. нельзя обучить компьютер думать, а написать для этого алгоритм – невозможно. Каждый раз будет получаться «умная» машина, возможно, очень «умная» (..), но никогда не получится искусственный интеллект. (..) Я не говорю, что у робота может быть внутренний мир и что он может испытывать эмоции. Нет, не может, потому что у него нет сознания».

Это наивные слова, обычное современное продолжение тезиса «Ignoramus et ignorabimus», кинутого Эмилем Дюбуа-Реймоном в его докладе «О пределах познания природы», прочитанном 14 августа 1873 года на втором заседании 45-го Конгресса немецких естествоиспытателей и врачей. Там он сказал в частности: «По отношению к загадке, что такое материя и сила и как они в состоянии думать, он [естествоиспытатель] раз навсегда должен обречь себя на тот гораздо труднее дающийся приговор: «ignorabimus»».
В современной постановке вопрос звучит так: Как должна быть устроена операционная система субъекта (человека, робота, инопланетянина и т.д.), чтобы он обладал и «разумом», и «сознанием», и «эмоциями» и т.д.? Когда кто-то говорит, что робот не может обладать всем этим, то он просто признается, что он (лично он!) не знает, как такая ОС должна быть устроена (и поэтому считает, что это невозможно вообще). На самом деле, если бы его мнение было верным, то не существовало и людей. (Однако же люди существуют и даже мыслят – некоторые и иногда). Нет принципиальной разницы между человеческим витосом и аналогичной операционной системой робота, которая проделывает ту же работу.
Знаменитым противником Strong AI был Роджер Пенроуз (две его книги перепечатаны с моими комментариями в альманахе МОИ № 14, № 15, № 16, № 17, № 18). В моих комментариях к его книгам разобраны многие вопросы, которые затрагиваются Вашей статьей.
«Тест Тьюринга» был выдвинут им в статье «Может ли машина мыслить?» (перепечатана в МОИ № 104, стр.10–32). Критику теста Тьюринга можно найти в моих примечаниях к рассказу Пенроуза в МОИ № 14, стр.20–27. Там же дальше о витосах (стр.28–31), о «китайской комнате» и «мозге Эйнштейна» (стр.42–47), об интуиции и «иррациональном мышлении» (стр.88–91).
В этом письме я не буду ни излагать ответы Веданской теории на различные вопросы, связанные с интеллектом, ни приводить еще другие ссылки на прежние публикации.
Подчеркну только, что искусственный интеллект (Strong AI) невозможно создать готовым; его можно только вырастить. Нужно ли это делать – это другой вопрос, который я здесь не разбираю (как и этические аспекты такого мероприятия). Лично я не собираюсь работать в этом направлении (хотя мне, в отличие от многих, кто этим занимается «профессионально», т.е. за деньги, принципиально ясен путь, как это надо делать).
Но меня интересует этап, который наступает, так сказать, ПОСЛЕ создания искусственного интеллекта (или, по крайней мере, после осознания того, каковы они – и искусственный интеллект и принципиально такой же естественный интеллект). Это вопрос о рефлексиях этого знания на другие области науки, – и в первую очередь на математику – на это стопроцентное творение интеллекта.
Для изучения и оценки ВТ и ее рефлексий на математику было задумано создать добровольную комиссию исследователей под эгидой Комиссии РАН по борьбе с лженаукой и фальсификацией научных исследований. Но предполагаемое главное лицо такой комиссии – академик Л.Д. Фаддеев – почти сразу умер, поэтому комиссия (какой уж ее удалось создать) была названа его именем.
Своим составлением и публикацией обзора по ИИ Вы, Валерий Петрович, показываете, что Вас эти вопросы интересуют. Поэтому я предлагаю Вам тоже стать членом Комиссии им. Фаддеева для более подробного изучения дела. Если же Вы для этого слишком заняты, то, может быть, Вы вместо себя можете порекомендовать кого-то из круга Ваших знакомых, например, из тех, кто писал комментарии к Вашей обзорной статье и кого, стало быть, эти вопросы тоже интересуют.
С уважением,
Валдис Валевич Эгле, Рига

от: Mail Delivery Subsystem <mailer-daemon@googlemail.com>
Кому: egle.valdis@gmail.com
дата: 7 июн. 2019 г., 21:40
тема: Delivery Status Notification (Delay)
отправлено через: mail-sor-f69.google.com

Пока не доставлено
При доставке сообщения получателю mail@lebed.com возникла временная ошибка. Gmail будет повторять попытки в течение 45 ч. Если доставить письмо не удастся, вы получите уведомление.

В.Э. 2019-06-07: Этот адрес указан в качестве контактного для альманаха «Лебедь»: http://lebed.com/kontaktyi.php. Но он не работает.



[1] Теперь перепечатана в https://comfadde.blogspot.com/2019/06/lebed-ai.html.

Lebed-AI


Сомнительный искусственный разум

03-06-2019
Валерий Лебедев (обзор)

Мозг человека содержит множество биологических механизмов. Сотни миллиардов нейронов соединены в сложные схемы, каждый нейрон постоянно принимает и отправляет сигналы. Сигналы эти – результат ионов, просачивающихся внутрь и за пределы клеточных мембран, а поток их регулируется крошечными белковыми порами и насосами. Каждая связь между нейронами, каждый синапс – это поразительный механизм действия белков, которые постоянно находятся в движении. Нейронам для работы нужна энергия, которая извлекается из реакции окисления глюкозы кислородом. Простое создание правдоподобной симуляции каждого нейрона – это крайне смелая задача, хотя с приблизительной точностью это уже было сделано.
Симуляция целой сети взаимодействующих друг с другом нейронов, каждый из которых имел бы действительно реалистичные электрические и химические свойства, – это пока за пределами текущих технологических возможностей.
Плюс есть осложняющие факторы. Кровеносные сосуды реагируют непростым образом, позволяя распределять кислород по необходимости в ту или иную часть мозга. Есть также нейроглия – крошечные клетки, количеством значительно превышающие число нейронов. Они позволяют нейронам функционировать таким образом, который нами по большому счету еще не понят: устраните их, и ни один синапс не будет работать нужным образом. Никто, насколько мне известно, еще не создавал компьютерную симуляцию нейронов, глии и кровотока. Но это может не понадобиться. Вспомните прорыв Эдисона с фонографом – выяснилось, что для верного повторения звука вам не нужно повторять инструмент, который его изначально произвел.
Большинство людей считает, что машина, способная ездить без водителя по городскому трафику, останавливаясь перед пешеходами, перебегающими в неположенном месте, и т.п. – это и есть искусственный интеллект, но это всего лишь программный алгоритм, основывающийся на большой базе знаний, GPS, изображении с камер, датчиках и других данных. Даже пылесос, который чистит дом по заданному алгоритму, называют искусственным интеллектом.
Для определения, может ли машина мыслить, Тьюринг предложил тест, который звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы – ввести человека в заблуждение, заставив сделать неверный выбор». Этот тест был пройден современным чат-ботом, который совершенно точно не является искусственным интеллектом (хотя сразу же было заявлено, что всё тестирование проходило некорректно).
Для искусственного интеллекта очень важна возможность самообучения, т.е. создаётся программный код, который может обучаться на своих ошибках или успехах, например:
– робот, который научился раздавать карты для игры в блэкджек so-l.ru;
– робот, который обучается играть в настольный теннис zele.ru.
В данном случае программа просто записывает результаты своих действий и в следующий раз делает действие, основанное на предыдущих экспериментах, например, если мячик отбивается совсем не в ту сторону, робот отобьёт его в следующий раз по-другому и сравнит эти данные, чтобы получить идеальное отбивание со временем. Но алгоритм такого робота не предполагает, что, если посадить его за автомобиль, он сможет научиться им управлять, т.к. его программа написана только для обучения определённым действиям.
Таким образом, то, что подразумевается под искусственным интеллектом, должно иметь возможность обучаться всему так же, как человек, т.е., условно говоря, программа должна уметь «обучаться обучению» и принимать решения, не основанные на изначальном программном коде. Получается, что искусственный интеллект должен сам создавать новый программный код для своих компонентов для каждой ситуации, исходя из всего предыдущего опыта.
Т.к. это очень сложная задача, учёные используют то, что уже создала природа для обучения, – мозг. Чаще всего используется мозг мелких грызунов, например, крысы, к которому подключают датчики и элементы управления, и используют различные сигналы, способствующие обучению. Например, если нужно обучить биоробота не врезаться в стены, его отпускают поездить и посылают сигнал боли, если он врезается в стены, или сигнал удовольствия, если он выполняет нужную задачу.
В данном случае мозг может думать, обучаться и принимать решения, основываясь на своём опыте. Но являются ли такие разработки искусственным интеллектом? Нет, т.к. используется естественная возможность мыслить и самообучаться. С помощью этого действительно можно создать робота с мозгом человека, возможно, даже воссозданным искусственно. Он сможет ходить в школу, учиться водить, рыбачить, плавать и создавать новые технологии и работать учёным, но фактически это будет «человек» с телом робота, а не робот с мозгом человека (так же, как человек с искусственной рукой не считается роботом).
Возможно ли создать действительно искусственный интеллект, наподобие тому, как это было, например, в фильме «Робот по имени Чаппи», для которого не нужно будет биоматериала? Нет, т.к. нельзя обучить компьютер думать, а написать для этого алгоритм – невозможно. Каждый раз будет получаться «умная» машина, возможно, очень «умная», как IBM Watson (youtube.com), но никогда не получится искусственный интеллект.
Так каков же необходимый уровень подробности копирования, если вы хотите отразить разум человека? Из всей совокупности сложных биологических механизмов – какие именно схемы в мозге нужно воспроизвести, чтобы уловить информацию и сознание?
В 2005 году профессор в области изучения мозга Университета Индианы Олаф Спорнс и нейроученый из Университета Лозанны Патрик Хагманн независимо друг от друга изобрели термин «коннектом» для обозначения карты или схемы связности каждой нейронной связи в мозге. По аналогии с геномом человека, который содержит в себе всю информацию, необходимую для выращивания человека, человеческий коннектом в теории содержит всю информацию, необходимую для подключения функционирующего человеческого мозга. Если общий принцип моделирования нейронной сети корректен, тогда суть человеческого разума заключается в его принципе связанности. Коннектом, симулированный в компьютере, воссоздаст ваш сознательный разум.
Сможем ли мы когда-либо отобразить коннектом человека? Ну, ученые сделали это на круглых червях. На маленьких частях мозга мыши.
Технология сканирования мозга постоянно развивается. Прямо сейчас в авангарде идет магнитно-резонансная томография (МРТ). Сканограммы добровольцев в высоком разрешении демонстрируют конфигурацию связей в мозге человека в таких деталях, на которые мы никогда в принципе не рассчитывали. Скоро будут изобретены иные, еще более усовершенствованные технологии. Мы сможем сканировать, локализовать и хранить данные по каждой нейронной связи внутри головы человека. Это лишь вопрос времени, и сроки здесь – от пяти до десяти десятилетий.
Одно из самых распространенных предположений состоит в том, что суть машины составляет схема взаимодействия нейронов. Если вы сумеете измерить то, как каждый нейрон связывается со своими соседями, у вас будут все нужные данные для воссоздания этого разума. Из моделей нейронных сетей, компьютерных симуляций радикально упрощенных нейронов и синапсов, возникла целая область научных исследований. Эти модели опускают подробности глии, кровотока, мембран, белков, и ионов и так далее. Они принимают во внимание лишь то, как каждый нейрон связан с другими. Это схемы проводки.
Простые компьютерные модели нейронов, сцепленные между собой простыми синапсами, способны к действиям невероятной сложности. Такие модели сетей известны уже несколько десятилетий, и они любопытным образом отличаются от стандартных компьютерных программ. Прежде всего они способны обучаться по мере того, как нейроны неуловимо подстраивают свои связи друг с другом. Они могут решать проблемы, которые сложны для традиционных программ, в особенности хорошо им удается принимать входной шум и компенсировать его.
Дайте нейронной сети нечеткое, зернистое фото, и она всё равно сумеет классифицировать изображенный объект, заполнив пробелы на картинке, – это называется дополнением паттернов (pattern completion).
Невзирая на эти удивительные человекоподобные способности, модели нейронных сетей пока еще являются решением задачи создания симуляции мозга. Никто не знает, как можно создать такую модель в соответствующем масштабе. Предпринимаются примечательные попытки – например, проект Blue Brain и его последователь, финансируемый Евросоюзом, Human Brain Project. Оба проводятся Швейцарским федеральным институтом технологий в Лозанне. Но даже если бы компьютеры были достаточно мощными для симулирования ста миллиардов нейронов – а технологии уже довольно близки к этому потенциалу, – реальная проблема – в том, как собрать и подключить такую крупную искусственную сеть.
Роботы уже научились производить и литературу, и живопись, и музыку. Роботы могут создавать такие произведения искусства, которые даже эксперт не отличит от созданного человеком. Но важным условием творчества является создание новых эстетических норм. Программа может следовать тем или иным нормам, которые в нее заложил разработчик, но не сможет сама создать новый жанр или направление. Уже созданы программы, которые пишут музыку «под классическую». Эта музыка звучит так, как будто ее писал человек в определенный исторический период. Робот может написать под Баха, под Бетховена, под Моцарта. И вы будете это слушать и думать: «Да, это что-то из того периода, что-то очень похожее». Не так давно ребята в «Яндексе» разработали программу, которая сочинила новый альбом группы «Гражданская оборона», и эту версию почти не отличить от оригинальных песен группы. То есть у «Гражданской обороны» есть свой стиль, по которому можно ее скопировать.
Может ли робот захотеть закончить свою жизнь по тем же причинам, по которым это иногда делают люди – в жизни нет смысла, у меня депрессия и так далее. И еще вопрос: можем ли мы, люди, позволить роботам этот суицид совершить?
Вы спросите: но как у робота может быть депрессия? Я не говорю, что у робота может быть внутренний мир и что он может испытывать эмоции. Нет, не может, потому что у него нет сознания. Но мы программируем роботов так, чтобы они демонстрировали 35 разных эмоциональных состояний. Чистая математика. Но иногда и в математике что-то может пойти не так. Может произойти сбой, и у робота может начаться депрессия.
Давайте поясню про эмоции. Например, робот может покурить сигарету, но не сможет от этого получить такого же удовольствия, как человек. Или давайте возьмем пример с лыжами. Я вчера катался на лыжах. И я испытывал очень много эмоций – от неописуемого восторга до легкого страха. Но такие переживания нельзя математически описать, а значит, нельзя и запрограммировать. У робота есть 35 эмоциональных состояний, но это именно математическая структура эмоции, а не эмоция в чистом виде.
По мере того как роботы будут развиваться, они будут становиться всё более умными и автономными. У них будет много эмоциональных состояний, и в какой-то момент может случиться сбой в системе и робот может захотеть закончить свою жизнь. Но для людей не выгодно, чтобы робот спонтанно совершал суицид – зачем нам терять наших роботов? Ну вы представьте, у вас робот на работе помогает носить тяжелые коробки, а потом вдруг пришел и решил, что жить не хочет, и убился. Кому это надо? Если мы разрабатываем по-настоящему автономные машины, свободные существа (а мы движемся именно в этом направлении), то вопрос, как предотвратить суицид, – это очень важный вопрос.
Вы, конечно, можете наложить определенные ограничения на то, что робот может или не может делать, но это сложно – вы же сами его запрограммировали быть свободным и автономным. Конечно, можно писать простые программы – робот может только делать шаг вперед и два назад, – и тогда таких проблем не будет. Но кому нужны такие роботы? Мы же хотим именно создавать более умные технологии, а умные – значит независимые.
И тогда вопрос: как исследовать желание суицида с математической точки зрения. Как нам, используя математику, сконструировать робота так, чтобы сбоя не произошло? Может ли быть этически допустимо, чтобы робот такое вообще захотел. И я считаю, что морально недопустимо совершать суицид, когда легкая депрессия. Вот это «у меня нет мечты», «мне скучно на работе». Потому что депрессия такая штука – сегодня есть, а завтра нет. Поэтому ответ на наше исследование таков: в большей части случаев нет, это недопустимо. Но если роботу начинает казаться, что он настолько дисфункционален, как будто вообще не существует, если у него необратимо погиб мозг и его в его теле больше нет, тогда ок, он может убиться. Теперь вопрос: как сделать так, чтобы робот не впал в эту ловушку, не почувствовал себя мертвым? Этого мы пока не поняли, но продолжаем изучать. Это ужасно любопытно – превращать этику в математику.
Раньше людям казалось странным думать о том, чтобы снабжать робота этическими нормами, но теперь всё больше и больше людей понимают необходимость этого.
Основной вопрос – это то, как новые технологии сталкиваются с международным гуманитарным правом, в котором прописаны правила ведения войны. У нас нет совершенно никакой уверенности в том, что независимые боевые роботы собираются эти правила соблюдать.
Один из вопросов, который нас беспокоит, – это как роботы будет соблюдать принцип различия. Принцип различия подразумевает, что военные силы направляются только на противника и его оружие, а причинение вреда гражданскому населению не допускается. Чтобы соблюдать этот принцип, нужно точно определять лица и объекты, на которые позволено нападать. Это всё прописано в Женевской конвенции. Солдат должен отличать гражданского от солдата. Боевые роботы на данный момент в своем развитии на это неспособны. Они еще могут отличить танк от грузовика. Но в мире людей, где солдаты и гражданские перемешаны, особенно если речь идет о повстанцах – все эти категории людей для робота на одно лицо.
Если вы убиваете гражданское население противника, то количество убитых должно быть прямо пропорционально их военному превосходству. И нет никакой программы, которая может посчитать это заранее – только опытный командир в поле может принять такое решение.
Есть еще один философский аргумент, онтологический. Считается, что это не достойно человека – позволить роботу убить другого человека. Вот вам ключевая разница между тем, когда робот убивает человека и когда человек убивает человека. Когда человек убивает человека, он тратит минуту, чтобы наставить оружие, осознать, что сейчас он лишает человека жизни, и в конце концов убить его. Но когда робот убивает человека, он не думает, ничего не осознает, потому что у него нет сознания. Достойно ли это человека, лишать другого человека жизни неосознанным путем?
Еще один аргумент – консеквенциалистский. Сторонники этого подхода считают, что, если хотя бы часть военных заменят роботы, умрет меньше людей. Но противники этого подхода говорят, что это ужасно эгоистичный подход: консеквенциалисты думают только о своих солдатах, а вообще-то надо думать обо всех, иначе под угрозой уже вся международная безопасность.
Можем ли мы позволять роботам совершать умышленное насилие? Допустимо ли в нашем мире наделять робота полномочиями охранника или военного?
Убивать вообще нехорошо, убивает ли робот или человек. Но здесь речь идет о том, чтобы сформировать целую индустрию, задача которой будет оптимизировать процесс убийства, еще эффективнее убивать людей. Разница между тем, когда робот убивает человека или человек человека, в следующем: традиционно считается, что человек может применять насилие, только если его собственная жизнь в опасности. Роботы не способны оценить, в опасности ли их жизнь. И мы можем запрограммировать роботов убивать, но насколько это морально – открытый вопрос. Роботы не люди, у них нет права на самозащиту.
За два–три года страны могут разработать новые виды боевых роботов, вложить в это много средств и не захотеть отказываться от своих роботов.
Что произойдет, когда у робота появится сознание? Какими правами необходимо его наделить? Но этот вопрос больше интересует поклонников Sci-Fi сегодня, чем философов. Хотя, если вы почитаете оксфордского философа Ника Бострома, он эту тему обожает и получает отличные гранты на исследования. Но когда вы говорите с инженерами, которые реально производят роботов и искусственный интеллект, – их такие вопросы совершенно не беспокоят: они считают, что ответ либо «никогда», либо «очень не скоро». Но это очень горячая тема для СМИ.
Так как решения проблемы не нашли пока, то ограничимся тем, что классифицируем точки зрения. А они таковы:
No AI – отрицание возможности создания ИИ.
Strong AIпозиция, много раз озвучиваемая С. Лемом в его рассказах, и лучше всего выраженная как «Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум – это разум» (c) Дж. Серлем. Для многих материалистов такая точка зрения является естественной, в противовес
Weak AI. Тут путаница. Есть два Weak AI: довольно радикальная точка зрения – невозможность создания мыслящих машин в принципе (ну например, из-за отсутствия души, то есть машина, не созданная Богом, не может иметь сознание), и мягкое Weak AI.
Суть ее в следующем. Мы сделали механическую руку, которая поднимается, если датчики на пальцах регистрируют повышенную температуру. Подносим зажигалку – рука поднимается, «избегая» пламени. Разумеется, рука не чувствует боли, сходство лишь внешнее. Модернизируем робота (v2), добавив зрения и больше информации об опасностях. В третьей версии робот будет понимать речь, и спасать себя от свалки, взаимодействуя с людьми, пытаясь расти по карьерной лестнице, имитируя человека.
Поинт заключается в том, что на каждом шаге, добавляя что-то количественно, мы не добавляем ничего качественно, и всё, что мы создали, – это идеальная имитация человека, в которой не больше сознания, чем в версии 1.0. Эта идеальная имитация называется P-zombie.
Здесь приведен целый ряд аргументов за qualia, (равно как и против их). В любом случае, без решения этой проблемы человечество не сможет покинуть физическое тело, что представляется в дальней перспективе неизбежным.
По материалам
«У роботов никогда не будет сознания. Для чего нужна киберфилософия» – snob.ru
«Это отличный рецепт, чтобы получить ад на Земле. Киберфилософы о своей работе» –snob.ru

Комментарии к статье (на момент перепечатки):

Boris Kollender – 03.06.2019 в 23:38:
Тест Тьюринга приведен по Википедии правильно, а по сути постановки задачи: «отличить компьютер от человека» – не вполне точно. Любой компьютер работает по определённым алгоритмам, а решения задач происходят по законам булевой алгебры. Человек, в отличие от машины (и животного), думает творчески – результат его мышления нельзя получить определённым алгоритмом. В этом, собственно, и есть тайна человеческого сознания. В эксперименте Тьюринга судье трудно справиться с решением компьютера, алгоритм которого может быть очень сложным. И с человеком, сидящего за занавеской, потому что этот человек может создать информацию, без всякого алгоритма по секретам творческого мышления. // Любой компьютер является сегодня «искусственным интеллектом», поскольку он создан искусственно человеком. То, что сегодня предлагается назвать «ИСКУССТВЕННЫМ ИНТЕЛЕКТОМ», – это устройство, которое бы думало как человек – творчески. Т.е. непредвиденно любым алгоритмом, а как человек. Пока мы не знаем, как думает человек, и как может думать «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ». И в этом его опасность. // Кстати, самообучение – это просто усложненный алгоритм компьютера, но не «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ».

redactor – 04.06.2019 в 05:34:
Вполне толково. ТАК ПРИМЕРНО ДЕЛО И ОБСТОИТ.

Monster – 04.06.2019 в 03:17:
Чушь какая, сплошной профанаж! «Нельзя обучить компьютер думать» – дайте сначала ТОЧНОЕ определение значению «думать». «Искусственный интеллект должен сам создавать новый программный код для своих компонентов для каждой ситуации, исходя из всего предыдущего опыта» – вы не в курсе, что СЕГОДНЯ и СЕЙЧАС компьютер может сам создавать себе новый программный код? Не в том объеме, как вы имеете в виду? Нет. Пока нет. Эта технология постоянно развивается. Вы можете доказать, что существует некий «жесткий предел» этому процессу?

ow@pisem.net – 04.06.2019 в 06:23:
Познавательный текст! Я с интересом узнал, что хотя искусственным интеллектом даже ещё и не пахнет, а философы уже активно окучивают эту площадку, получая «отличные гранты». Энтузиасты ковыряются в мозгах, чтобы понять, как они работают. Они работают на молекулярном и ионном уровне, который вне биологии живых организмов невоспроизводим. Живой нейрон впрямую непознаваем. В него никто не влезет. Там слишком маленькие «запчасти», а ещё эти потоки ионов и какие-то непонятные глии. А мёртвый нейрон – это уже не нейрон. Но это меня не раздражает, даже радует – пусть народ кормится, если платят. Может случайно вылечат Альцхаймер. А вот раздражает то, что никто не работает над задачей пусть и «квази-интеллектуального» перевода, основанного не просто на базе данных словарей, на создании памяти, способной хранить в связке с каждым словом и его семантику. Ведь семантическое описание – это тоже слова из словаря. Равно как и правила грамматики. «Вначале было слово!» Возможности сегодняшних устройств памяти позволяют хранить не только слова и их семантику, но и целые выражения, не переводимые точно по смыслу каждого в них слова. Конечно, нужен ещё и механизм идентификации смыслов. Нечто вроде изощрённого поисковика Гуугл. Реализованного, скажем, в виде сетевого или матричного коммутатора. Но ведь это в принципе возможно. С неким упрощением это и была бы модель человеческой памяти для текстовой информации. Да что там перевод. Все мысли и знания человека – это продукт иницииации сознанием работы его памяти в части запаса слов, понятий и формул!!! Если, конечно, не считать, что они приходят в мозг из Вселенского Разума. Интеллект, не облечённый в слова или формулы – это музыка, танец, живопись и всё тому подобное. Это пока может подождать, хотя это частично уже работает. Без лишних слов... Нет даже смысла работать над симуляцией сознания, если сознавать-то пока и нечего. Творчество – это продукт ассоциативного мышления. Так что пока неоткуда даже извлекать мысли в семантически близких областях, об искуственном интеллекте тоже рано беспокоиться. Никоим образом не претендую на роль глаштая истины в последней инстанции. Так, взгляд и нечто...

redactor – 04.06.2019 в 10:15:
Очень важные соображения. Но они, скорее, навевают скептическое отношение к искуссвенному интеллекту. То есть, он может быть, но у живого субъекта. Нужно сначала воспроизвести жизнь на другом субстрате, а потом устраивать на нем разум.

ow@pisem.net – 05.06.2019 в 06:58:
Мой скептис скорее не к ИИ как идее, а к возможности создания ИИ при непонимании, что это такое и каковы его функции. Это наглое утверждение основано на том, что я нигде не смог найти хоть упрощённого, но формального определения ИИ. А любая железяка со сложной программой функционирования уже гордо именуется интеллектуальным роботом. Сплошное бла-бла-бла. Полагаю, ИИ абсолютно не нужен для художественного творчества. Он мог бы быть чрезвычайно полезен при решении задач науки, экономики и социального устройства общества. Но если наука от услуг ИИ не откажется, то никто и никогда не доверит ему экономику и политику. Тут при деле масса людей, чей интеллект не превышает интеллекта шимпанзе, но своей кормовой базы они не уступят никому и никогда. Поэтому полагаю, что до создания ИИ человечество не доживёт. Прежде чем создавать ИИ, не худо бы нам, людям, обзавестить хоть каким-то своим, способным гарантировать человечеству достаточно продолжительное существование.

dude – 04.06.2019 в 10:59:
Есть 2 соображения. Во-первых. Мозг человека-гоминида – очень избыточная структура. С точки зрения эволюции, так её разэдак. Раз уж насекомые со своим недоразумом вполне успешо живут и репродуцируют. Следовательно: компьютерный «разум» требует охрененно избыточных мощностей, не «достаточных», а именно – избыточных. Грубо говоря, на 100 тысяч (или миллионов..) компов будет интеллекта – на копейку. Второе. Интеллект – это, в первую очередь, взаимодействие. То есть, соотношение ввода-вывода. Компы могут только с компами. Сколько бы ни был «умным» компьтер, его вход – поступающая информация – намного меньше, чем всё, что живое существо получает из внешнего мира через сенсорные органы. Насколько я понимаю, никто еще не смоделировал весь поток инфы который обычный человек получает каждую секунду из внешней среды. Ergo: интеллект – это результат взаимодействия внешней среды и внутренней структуры, а не какая-то вещь «внутри себя».. Я полагаю, что настоящие «искинты» скорее возникнут, как «боты» внутри компьютерных игр, «живущие» внутри вот этого мира игры. Ну, потом, может быть .. но не очевидно. Хотите искинт – развивайте «сенсорику», для начала. Как, собственно, эволюция и происходила.

dude - 04.06.2019 в 11:07:
Кстати, уважаемый редактор! В плане пожелания: было бы неплохо, если бы форма для комментариев не заменяла перенос строки на пробел. Enter на Space. Не знаю, в чем смысл, но когда из форматированного текста получается однаоченьдлиннаячертвозьмистрокакоторуюхренпрочитатьсложно – это как-то не то.. Спс.

Boris Kollender – 04.06.2019 в 14:57:
Пожалуй, имеет смысл добавить: создание «искусственного интеллекта» – не очень хорошая идея. Изначально авторы этой идеи, вероятно, исходили из восхищения человеческим гением, который создал великие произведения искусства, открыл фундаментальные тайны естественной природы, организовал цивилизованное человеческое общество, которое не под силу никакой природной эволюции. Всё это оказалось возможным человеческому интеллекту. Если создать такой же интеллект искусственно, то он сможет многократно преумножить человеческие достижения. Однако, и во время рождения идеи «искусственного интеллекта», и в наше время, забывают, что человеческий разум наделал много глупостей и ужасных вещей. И нет никак гарантий, что искусственный интеллект, обладающий «свободой воли», не натворит свою кучу глупостей. Если же создать интеллект с ограничением его воли по каким-то правилам, то это уже не будет «настоящий искусственный интеллект», а получится опять машина. Впрочем, возможно, весьма полезная.

Червона Калина – 05.06.2019 в 01:18:
youtu.be/6qAucF-MVXY Лучше не скажешь.

Boris Kollender 05.06.2019 в 16:11:
Спасибо Червона Калина 05.06.2019 в 01:18. Прочитал youtu.be/6qAucF-MVXY. Действительно интересно. Но про ваше «лучше не скажешь» можно сказать «и хуже тоже». Ибо вывод из выступления Савельева такой же: что такое искусственный интеллект – мы понятия не имеем.

2019-06-02

Kadisov-2019-06-01


от: Евгений Кадисов <kadissov.e@gmail.com>
Кому: Валдис Эгле <egle.valdis@gmail.com>
копия: Максим Макаров <makarovmv2000@yandex.ru>
дата: 1 июн. 2019 г., 07:03
тема: Re: Тупик.
отправлено через: gmail.com

Валдис Валевич.
Получается, что для Вас количественная (канторовская) ипостась несчётного множества важнее возможности или невозможности считать (или нумеровать) его элементы.
Под страхом ещё раз упасть с луны, я всё же задам Вам пару вопросов. Что такое несчётное множество, существуют ли таковые и, если существуют, дайте пример такого множества.
С уважением, Е.К.


от: Валдис Эгле <egle.valdis@gmail.com>
Кому: Евгений Кадисов <kadissov.e@gmail.com>
копия: Максим Макаров <makarovmv2000@yandex.ru>
дата: 1 июн. 2019 г., 15:50
тема: Re: Тупик.
отправлено через: gmail.com

Евгений Михайлович,
Во всем Вашем письме, в самой постановке вопросов опять чувствуется подход «от слова к вещи». Для Вас слова «несчетное множество» первичны, а потом Вы ищете, какой вещи они соответствуют, и существует ли такая вещь. А для правильного мышления всё наоборот: смотрим, какие имеются вещи, и присваиваем им такие имена, какие пожелаем. Вот, сейчас на моем столе две клавиатуры от двух компьютеров – одна белая, другая черная (печатаю на черной). Вот, я объявляю: «Совокупность этих клавиатур впредь будет называться Несчетным множеством». (Этим я создаю систему понятий, которой присвоим идентификатор, скажем, X). Тогда, безусловно, несчетное множество существует, и Вам дан конкретный, материальный пример Несчетного множества.
В другой какой-нибудь системе понятий Y словами «несчетное множество» может быть названа какая-нибудь другая вещь, например, множество I иррациональных чисел, какое оно в Ваших представлениях. Никакого «абсолютного» значения у этих слов («несчетное множество») нет. Бессмысленно спрашивать, существуют ли несчетные множества, или нет. Если мы присвоим это имя существующей вещи, значит, несчетные множества существуют. Если присвоим несуществующей вещи, значит, несчетные множества не существуют.
Присвоение имени есть вопрос удобства и только удобства. Вы хотите присвоить это имя описанным Вами образом (так, чтобы множество R получилось счетным, а множество I несчетным). Разумеется, имена можно присвоить и Вашим образом, но мы считаем, что это создаст большие неудобства и путаницу в терминологии, поэтому отказываемся присваивать имена ТАК.
Если названия присвоить так, как их присвоил Кантор («несчетное множество – это такое множество, которое, как показывает диагональный процесс, нельзя перенумеровать, и которое поэтому – в результате слияния обеих ипостасей счетности – больше по количеству элементов, чем счетное») – если ТАК присвоить обозначения, то несчетные множества не существуют, – потому что диагональный процесс проведен некорректно, и им ничего не доказано.
Вообще в Системе М, где действует Постулат процессов, существует то (и только то), что построено каким-нибудь процессом. Есть процесс, есть его результат, – значит, объект (этот результат) существует. Нет процесса, нет и объекта. В отношении объекта «множество I всех иррациональных чисел» положение такое (как я многократно описывал, но, может быть, Вы не до конца осознали). Есть процессы, создающие отдельные иррациональные числа. (Значит, эти отдельные иррациональные числа существуют). Есть процесс RQ, описанный мной детально 4 мая [R-Q], значит, существует результат I этого процесса, называемый «множество всех иррациональных чисел». Но этот процесс не создает конкретные элементы множества I. Он создает только «множество в целом». Вот, таково объективное положение (созданное имеющимися процессами): есть «множество в целом», но без конкретных элементов, и есть отдельные элементы, созданные отдельными процессами (но не понятно, где конец ряду этих элементов). А такого процесса, который создавал бы сразу всё I со всеми его элементами, – такого процесса нет. Таково объективное положение, а говорить при этом «I существует» или «I не существует» – это опять вопрос лишь конвенции.
Когда Вы говорите о «возможности или невозможности считать» элементы I, у Вас опять работает подход «от слова к вещи». Вот, для Вас первоначально есть слова «множество иррациональных чисел», и ну давай Вы решать, можно или нельзя сосчитать его элементы. (Ну, и получается, что их нельзя сосчитать).
А при взрослом подходе сначала смотрим, что есть в наличии на самом деле. (Есть результат процесса RQ и есть результаты построения отдельных иррациональных чисел).
Что считать-то?
Результат RQ не имеет элементов, и там нечего считать, – нет объектов.
А результаты построения отдельных иррациональных чисел – пожалуйста, считайте до бесконечности!
Так обстоят дела на самом деле с этим «можно или нельзя сосчитать», – если мыслить четко и конкретно.
С уважением, В.Э.


от: Евгений Кадисов <kadissov.e@gmail.com>
Кому: Валдис Эгле <egle.valdis@gmail.com>
копия: Максим Макаров <makarovmv2000@yandex.ru>
дата: 1 июн. 2019 г., 17:00
тема: Re: Тупик.
отправлено через: gmail.com

Валдис Валевич.
Не знаю, что и думать. Вы ответили на вопрос, который сами себе задали. Я спрашивал о несчётном множестве, а получил ответ о множестве иррациональных чисел. Вы невнимательно читаете мои письма. Складывается впечатление, что Вас не интересуют мнения других людей. Есть люди, которые считают примерно так: «Существуют неправильные мнения и моё». Похоже, что Вы принадлежите к таким. С каким трудом мне удалось убедить Вас, что у Вас ошибка в греческой цитате. Казалось бы, о чём тут разговор? Но сколько страниц Вы извели на это из-за одной буквы.
О чём говорит пример, когда вы назвали несчётным множеством комплект из двух клавиатур?
Движение от слова к вещи так же допустимо, как и движение в обратном направлении. Лишь бы эти движения были осмыслены. Я могу искать вещь по её имени, и наоборот, вспоминать, как она называется.
Спрашивал я о Вашем мнении по поводу несчётных множеств вот почему. Если Вы считаете, что такие множества не существуют, то бессмысленно пользоваться понятием «счётное множество». Понимаете ли Вы это?
С уважением Е.К.


от: Валдис Эгле <egle.valdis@gmail.com>
Кому: Евгений Кадисов <kadissov.e@gmail.com>
копия: Максим Макаров <makarovmv2000@yandex.ru>
дата: 2 июн. 2019 г., 19:50
тема: Финиш
отправлено через: gmail.com

Евгений Михайлович!
В самом начале нашего общения, 13 февраля 2019 г. в 15:14 я писал Вам: «Должно быть как в шахматах: Вы сделали ход – я сделал ответный ход, и т.д.» [NachP]. Я всегда смотрел на эти вещи (переписки) как на игру типа спортивной, где игроки делают свои ходы и получают ответные ходы. Например, почти 30 лет назад 5 декабря 1989 г. в 00:16 я писал Сергею Сухову [SUHOV.1918]:

«С самого начала этой переписки я смотрел на нее как на определенную игру не только в том смысле, что я дурачусь и играюсь, но и в том смысле, что мы с противником разыгрываем (как в шахматы) некоторую партию по заранее заданным правилам. В этом смысле правила игры определяли мои действия; игра развивалась по своим собственным законам в зависимости от ходов, сделанных игроками. Противник походил так? Значит, я должен ответить так! Ходы Сухова, Савералова и Троценко были такими, что они (по правилам игры) неизбежно вели к обострению отношений. В то же время ничто не мешало им играть по-другому, делать другие ходы, на которые (опять же по тем же правилам игры) я отвечал бы совсем иначе, и наша партия пошла бы в совсем другое русло».

То же самое относится и к Вам. Ходы, которые делали Вы, привели партию туда, куда она теперь пришла.
В кругу своих знакомых я слыл знатоком психологии. Мужчины заказывали мне свои «психологические портреты», а женщины старались стать моими ученицами в области психологии (одним из проявлений этого был сборник DVESA, заказанный дочерью Натальей того же Сухова). Знаток – не знаток, но я действительно всегда с точки зрения психологии оцениваю тех людей, с которыми имею дело. В начале нашего общения были оценены и Вы. Имея на руках первые Ваши письма, я вглядывался в Вашу фотографию, выставленную на Вашем сайте http://eugen1937.ucoz.net/, и мой вердикт был таким: «Холерик. Эпитимик. Эпилептоид. К тому же 81 год. Прогноз отрицательный». Несмотря на такой прогноз, я, чтобы не быть предвзятым, принял «презумпцию положительности» и повел себя так, как будто Вы действительно можете быть полноценным членом КИФ и соавтором книги о канторизме. (Обычная моя деликатность и психастеничность: не решаюсь с порога выступать против людей лишь на основании своих ожиданий прежде, чем они проявили себя в действии).
К сожалению, я почти никогда не ошибаюсь в психологических оценках людей, и первоначальный прогноз полностью оправдался. Я не знаю, болеете ли Вы эпилепсией (не удивлюсь, если да), но в любом случае характер у Вас схожий с характером эпилептиков. Ведущий психиатр Латвии в эпоху моей молодости, по учебнику которого EGLIT в основном формировались мои психиатрические взгляды, профессор и зав. кафедрой Рижского медицинского института, доктор м.н. Имант Эглитис так характеризовал эпилептоидный характер (привожу по переводу в сборнике DVESA, стр.108):

.164. Центральное расстройство – трудности переключения, больные становятся эгоистич­ными, мелочными, мышление легко застревает в ненужных деталях, им трудно переключиться на другую тему, трудности в смене эмоций. Часто как характерный симптом упоминают злопамятность, больной даже через много лет помнит ничтожное, мелкое событие и желает «отыграться», отомстить.
.165. Больные уже не могут отличить важное от маловажного, постоянно застревают в деталях. Больные долго и основательно углубляются в мелочи, любят и хорошо справляются с мелкими, педантичными работами, записывают мелочи в записную книжку, постоянно на всё жалуются и обижаются, если их невнимательно слушают. Они становятся скупыми.
.166. Больные почти постоянно находятся в эмоциональном напряжении. В поднятом настроении они восхищены (явления экстаза), а подавленность комбинируется с выраженной злостью, вредностью, обидчивостью, тревогой, страхом. В личном контакте больной подхалим, льстит, употребляет много уменьшительных слов, а за спиной зол, жесток, мстителен.

Я в этой цитате подчеркнул те моменты, которые мы непосредственно наблюдали в переписке с Вами. Чрезвычайная неповоротливость мышления, косность, почти абсолютная неспособность переключиться, воспринять другие идеи, постоянное застревание в маловажных мелочах и неспособность увидеть общую картину, магистральные линии – вот основные характеристики Ваших писем.
Владимир Леви дополняет портрет холерика (авторитарной личности) таким штрихом (DVESA, стр.130):

.467. Жесткая стереотипность мышления. Есть специальные тесты, и один из них – знаменитый «Кошачье-собачий». Испытуемому предлагается несколько картинок. Кошка... кошка... Но на каждой картинке кошка постепенно меняется, ей придаются черты собаки, и так до последней, где это уже полная собака. Но для авторитарной личности это всё равно кошка...

Вот, и для Вас, какие бы объяснения ни давались, какие бы аргументы не приводились, а кошка всё равно оставалась кошкой...
Ваше последнее письмо показывает, что Вы ничего, ну абсолютно ничего не поняли и не восприняли из того, что Вам объяснялось.
Вы пишете:

«Я спрашивал о несчётном множестве, а получил ответ о множестве иррациональных чисел. Вы невнимательно читаете мои письма».

Нет, Евгений Михайлович, – я Ваши письма читаю оч-чень внимательно – и именно поэтому Вам так нездоровится после моих ответов. И о несчетном множестве ответ Вы получили. (Он звучал так: «Бессмысленно спрашивать, существуют ли несчетные множества, или нет. Если мы присвоим это имя существующей вещи, значит, несчетные множества существуют. Если присвоим несуществующей вещи, значит, несчетные множества не существуют»). А множество иррациональных чисел – это пример, иллюстрация множества, которое то ли счетно, то ли несчетно – в зависимости от системы понятий. Так что – это именно Вы читаете поверхностно и не улавливаете сути.
Далее Вы написали:

«Складывается впечатление, что Вас не интересуют мнения других людей. Есть люди, которые считают примерно так: «Существуют неправильные мнения и моё». Похоже, что Вы принадлежите к таким».

Как я уже говорил, для меня полемика – это нечто вроде спортивной игры с ходами, и если противник идет на конфронтацию, то начинается состязание на выигрыш. И по этой игре я, так сказать, «мастер спорта» – никому еще не удавалось у меня выиграть. (Вы тоже проиграли все туры один за другим, и проигрываете сейчас). А проиграв, вы все начинаете вести себя одинаково: начинаете говорить, что, мол, для меня существуют только «мое мнение и неправильные» – и тому подобно.
На самом деле существуют мнения логичные и нелогичные (и тем самым правильные и неправильные). А логика не зависит ни от моего, ни от Вашего желания, – она объективна, как законы природы. И разница между мной и Вами состоит в том, что я вижу, что логично, и что не логично, – а Вы это не видите. Поэтому я (в начале полемики) занимаю позицию логичную (и тем самым неуязвимую), а Вы занимаете позицию нелогичную (и тем самым обрекаете себя на неминуемое поражение). Вот как обстоят дела в действительности.
Правильность или неправильность «мнений» – это объективная данность, не зависящая ни от меня, ни от Вас. Надо только уметь видеть эту данность – т.е. обладать способностью логически мыслить.
Увы, люди почти поголовно этой способностью НЕ обладают. Эта способность в основном врожденная (как, например, абсолютный слух в музыке), но немножко влияет и обучение (особенно в детстве и ранней юности). В конце 1940-х годов в советских школах был такой учебный предмет, как логика; преподавался он по учебнику Челпанова еще из царских гимназий (переизданный см. в Chelpanov-2010). Этот учебник был переведен также на латышский язык, и мой отец, наряду с математикой, физикой и черчением, преподавал в средней школе по нему также и логику. Поэтому учебник этот был у нас дома с самого раннего моего детства, и я даже не помню, когда я начал его изучать, а к концу школы он был прочитан мной много раз, и я знал наизусть все латинские обозначения из него.
Но вскоре логику исключили из числа учебных предметов, и когда я учился, ее уже нам не преподавали. Теперь я не очень высоко ценю учебник Челпанова: там нет тех вещей, на которых спотыкаются мои противники, – нет у Челпанова речи о постулатах и выводах из них, недостаточно четко разобрана сущность определений, и т.д. Но всё-таки это было хоть что-то, а потом и этого не стало, – и целые поколения окружающих меня людей вырастают практически абсолютно безграмотными в логике. И тогда творят то, что они творят, – и, потерпев логическое поражение, обвиняют меня в том, что меня, мол, «не интересуют мнения других людей».
Меня, в общем-то, и вправду не интересуют нелогичные и глупые мнения «других людей». Мой интерес состоит в том, чтобы они мыслили логично и правильно. Если они придут с уже готовым логичным мнением, то это великолепно! Но если даже поначалу у них что-то нелогично и неверно, то они должны это изменить и занять правильную позицию.
Не обладая ни способностью, ни навыками логического мышления, мои противники (такие, как, например, академик Решетняк), как правило, просто не понимают, в чем именно состоит правильность логики, что можно, и чего нельзя оспаривать.
Я об этом писал уже несчетное количество раз, поэтому здесь чрезвычайно коротко. Костяк логического мышления составляет триада
Постулат – цепочка умозаключений – вывод.
Всё разнообразие человеческих воззрений выражается через постулаты. Может быть принят один постулат, и может он быть заменен другим постулатом. Так порождаются всевозможные системы. «Бог есть – Бога нет», «Через точку одна параллель, или много параллелей, или ни одной параллели» – всё это постулаты, порождающие различные системы воззрений. Именно в признании существования постулатов и возможности их замены другими постулатами заключается толерантность мышления, терпимость к чужим взглядам. И мне (вопреки Вашему мнению) она присуща в высшей степени. Я постоянно говорю о том, что будет, если принять такой постулат, что будет при таком постулате и т.д.
Постулаты можно менять, как угодно, – а вот цепочки умозаключений изменять нельзя! Если принята определенная система постулатов, то выводы из них следуют уже стопроцентно однозначно, и тот, кто эти выводы пытается отрицать, сразу становится логическим преступником и заслуживает логического наказания, и никакая толерантность, никакая терпимость в отношении его «мнения» применена не может быть. Как и к тому, кто отрицает возможность замены постулатов.
А мои дурачки-оппоненты, безграмотные в логике (такие, как профессор Подниекс и академик Решетняк) поступают ровно наоборот: они отрицают, что принятые ими постулаты могут быть заменены на другие, и оспаривают логические цепочки, ведущие к другим выводам, чем желаемые ими. Естественно, что после этого они получают от меня по шее так, как не получали никогда раньше в жизни (жалоба академика Решетняка) и потом взахлёб кричат о том, какой я нетерпимый к чужим взглядам и так далее.
Вы, Евгений Михайлович, до постулатов и логических цепочек просто не добрались. Вы застряли в определениях понятий, и так и не смогли усвоить, что понятия вообще-то можно определять по-разному. Для Вас кошка есть кошка, хотя это давно уже собака.
Вы спрашиваете: «О чём говорит пример, когда вы назвали несчётным множеством комплект из двух клавиатур?». Пример, конечно, карикатурный, но выбрал я карикатуру потому, что до этого Вы много, много раз проявляли неспособность понять не-карикатурные объяснения. А говорит пример о том, что в принципе любой термин может обозначать любую вещь – весь вопрос только в соглашении. Вот это Вы так и не понимаете. И свое непонимание (в очередной раз) демонстрируете словами:

«Движение от слова к вещи так же допустимо, как и движение в обратном направлении. Лишь бы эти движения были осмыслены. Я могу искать вещь по её имени, и наоборот, вспоминать, как она называется».

Искать вещь по имени Вы можете только после того, как заключено соглашение о том, как эту вещь называть. А я Вам говорил о моменте заключения этого соглашения. Подход ребенка, идущего от слова к вещи, тем и характеризуется, что данное соглашение заключено БЕЗ его участия, заключено другими лицами. И инфантильность Вашего подхода состоит в том, что Вы тоже (как и ребенок) смотрите на это соглашение как на нечто внешне данное, уже существующее, а не как участник соглашения, который будет его сам заключать в том или ином виде.
Вы пишете:

«Спрашивал я о Вашем мнении по поводу несчётных множеств вот почему. Если Вы считаете, что такие множества не существуют, то бессмысленно пользоваться понятием «счётное множество». Понимаете ли Вы это?»

Я понимаю не это, а то, как есть на самом деле. Во-первых, я не утверждаю, ни что несчетные множества существуют, ни что они не существуют, а сказал Вам: «Бессмысленно спрашивать, существуют ли несчетные множества, или нет. Если мы присвоим это имя существующей вещи, значит, несчетные множества существуют. Если присвоим несуществующей вещи, значит, несчетные множества не существуют».
Во-вторых, слова «Если Вы считаете, что такие множества не существуют, то бессмысленно пользоваться понятием «счётное множество»» – эти слова неправильны, и показывают алогичность Вашего мышления. Ведется полемика с кантористами, они пользуются этими терминами, и мы тоже в этой полемике можем ими пользоваться. И могли бы пользоваться термином «счетные» даже и вне полемики, если это по какой-то причине нам понадобилось: счетные-то множества ведь существуют.
Наконец, Вы выдали такую тираду:

«С каким трудом мне удалось убедить Вас, что у Вас ошибка в греческой цитате. Казалось бы, о чём тут разговор? Но сколько страниц Вы извели на это из-за одной буквы».

Здесь Вы, Евгений Михайлович, уже просто лжете. Ничего подобного не было. Еще в самом начале переписки, 15 февраля 2019 г. в 14:03, я просил Вас сообщать о всех ошибках, которые Вы заметите (файл Zaban, стр.30, сноска 19; NachP) и позже добавил: «У нас указания на ошибки рассматриваются не как придирки, а как конструктивное участие в работе». На греческую букву Вы указали не прямо, а с такими выкрутасами:

«Не знаю, как мне относиться к тому тексту, который мне прислан вместо ответа на мои простые вопросы. Можно, например, заметить, что Вы допустили ошибку в греческом выраже­нии «χοιναί έννοιαι», где вместо греческой «каппы» у Вас стоит греческая «хи». Но это была бы мелочная придирка. Как были бы неуместными и придирки по поводу ошибок в русских текстах».

Я тогда на 9 дней ушел из этой переписки и занимался другими делами, поэтому прочел Ваше письмо (от 20 апреля) только 29 апреля, и сразу же поблагодарил Вас: «Спасибо за указание о греческих буквах», однако всё всегда внимательно проверяя и почти никогда не полагаясь «наобум», попросил Вас: «Я готов поверить Вам, что у Евклида стоит «каппа», но всё-таки укажите, пожалуйста, точный и авторитетный источник» (Zaban, стр.31). Ни с каким трудом Вам не приходилось меня убеждать, это ложь.
Однако имело место другое. Перед этим много раз проиграв логические столкновения со мной, Вы были обижены и захотели воспользоваться этим случаем, чтобы отыграться. Поэтому Вы (1 мая 2019 г. в 08:32) кинули фразу: «Я бы не стал цитировать выражение, написанное буквами неизвестного мне алфавита» (Zaban, стр.33). Это был Ваш ход в нашей «шахматной партии», и на это тут же последовал мой ответный ход. Тогда я и разобрал дело о букве «каппа» более подробно (что и мне самому было интересно исследовать). В качестве ответной меры я тогда заговорил также об инфантильности Вашего подхода к терминам; прежде я так думал, но не говорил открыто, чтобы не обострять отношения.
Вообще во всех моих сочинениях (в том числе и о букве «каппа») можно наблюдать стремление к предельной точности, к исчерпывающему разбору вопроса. Моих оппонентов это всегда раздражало и злило (чувство, которое ими при этом руководило, похоже на зависть), и они это по-всякому ругали – как и Вы. На самом деле это есть проявление определенного психического склада, а этот склад ума (стремление быть до конца последовательным и «поставить все точки над i») как раз и есть то, что позволяет мне понимать логику там, где подавляющее большинство людей ее не понимают, и приходить к тем выводам, к которым они не могут придти. Это разные проявления одного и того же начала.
На этом я заканчиваю настоящий ответ Вам, Евгений Михайлович. Я думаю, что на этом надо и заканчивать вообще наше общение. Мой первоначальный прогноз («Холерик. Эпитимик. Эпилептоид. 81 год. Не будет толку от него!») оправдался. Не каждый может танцевать балет, не каждый может бежать марафон, и не каждый может писать книгу о канторизме. Будем считать, что своим последним письмом Вы добровольно подали заявление о выходе из КИФ. (Если Вы отказываетесь подать в отставку добровольно, то мне придется принять репрессивные меры).
Спасибо Вам за то участие, которое Вы приняли в работе КИФ.
Прощайте!
В.Э.

General

Общие сведения Конечная цель Комиссии: после тщательного изучения вопроса путем голосования среди членов Комиссии принять две резол...