Artificial Intelligence as a Goal and a Means
Table of contents
Share
QR
Metrics
Artificial Intelligence as a Goal and a Means
Annotation
PII
S258770110020591-2-1
Publication type
Article
Status
Published
Authors
Natalya Derzhavina 
Occupation: PhD Student, Department of Epistemology and Logic
Affiliation: State Academic University of Humanities (GAUGN)
Address: 26 Maronovsky st., Moscow 119049, Russian Federation
Edition
Abstract

The question of the essence of artificial intelligence seems to be closely related to the question of ethics, about how we expect or do not expect to see the consequences of the decisions made by the machine. Appeal to Kant's ethical philosophy makes it possible to obtain theoretical tools for describing artificial intelligence systems that meet the criterion of "humanity", which in the future should facilitate communication in the human-AI format and provide a general basis on which artificial intelligence can be correlated with natural intelligence.

Keywords
artificial intelligence, understanding, Turing test, ethics, goal, means
Acknowledgment
The article was prepared with financial support within the framework of the implementation of the state task of GAUGN on the topic “Modern Information Society and Digital Science: Cognitive, Economic, Political and Legal Aspects” (FZNF-2020-0014).
Received
27.03.2022
Date of publication
30.06.2022
Number of purchasers
0
Views
127
Readers community rating
0.0 (0 votes)
Cite Download pdf
Additional services access
Additional services for the article
1 От решателя задач к универсальному решателю задач
2

Интерес к вопросам, связанным с искусственным интеллектом, давно вышел за пределы профильных институтов. Множество проблем, возникающих в ходе обсуждения искусственного интеллекта (вроде известной дилеммы вагонетки), требуют не только инженерных, но и гуманитарных решений. При этом нельзя не заметить, что разговор об ИИ редко обходится без сравнения его, хотя бы косвенно, с естественным и зачастую именно с человеческим интеллектом. Искусственный интеллект оказывается хорошим предлогом поговорить о самих себе. Цель настоящего исследования состоит в том, чтобы рассмотреть по крайней мере одно важное условие, необходимое для приближения искусственного интеллекта к естественному. Покуда физически разница между носителями того и другого принципиальна, способ решения, подходящий для этой непростой задачи, может предложить философия.

3 Основание для сопоставления искусственного и естественного (в пределе – человеческого) интеллекта – это, собственно, сам интеллект, и в первую очередь необходимо коротко прояснить, что он есть сам по себе. Что мы сможем сказать о нем, если в теории отделим его от носителя? Для начала стоит обозначить, что интеллект сегодня редко понимается как вещь, как res cogitans. Хотя субстанциальное понимание интеллекта помогает достаточно эффективно решать ряд известных философских проблем, оно в то же время в изобилии порождает новые, и это одна из причин, благодаря которым большое распространение получило понимание интеллекта не как вещи, но как средства для решения определенных задач. Объединенные таким пониманием, чаще всего даже различные определения не противоречат друг другу, но взаимно друг друга дополняют. Способности к абстрагированию, суждению, рефлексии и т.д. одинаково подходят под определение интеллектуальных операций.
4 Возникнув и получив свое развитие в ходе эволюции у некоторых видов живых существ, интеллект позволил им в некоторых аспектах жизни серьезно превзойти конкурирующие виды, лишенные этого преимущества. Важно заметить, что по мере усложнения интеллекта у различных видов и даже отдельных особей животных возрастает и сложность задач, которые они оказываются способными решать. В живых (естественных) системах интеллект служит средством адаптации, то есть в первую очередь является функцией, позволяющей эффективнее осуществлять взаимодействие с окружающей средой. Это определение допустимо применить и к искусственному интеллекту.
5 Если по вопросу о природе возникновения естественного интеллекта у человека возможны разногласия между, например, эволюционистами и креационистами, то утверждение о том, что ИИ намеренно создается человеком, мало кому покажется спорным. Здесь все довольно прозрачно: ИИ – результат творческой, интеллектуальной и технической деятельности людей. Есть чрезвычайно убедительные основания полагать, что до момента создания ИИ человеком ничего подобного в природе не появлялось само по себе, а также не создавалось другими живыми существами. Человеком ИИ изначально создавался именно как средство для решения задач, и потому значительной концептуальной разницы между естественным и искусственным интеллектом при таком исходном определении не обнаруживается. Хотя И. И. Булычев и Р. В. Шутов утверждают, что «[…] естественный интеллект не может быть алгоритмизирован полностью из-за неотделимости от субъекта с его эмоциями, рассудком и волей»1, можно отметить, что установление связи между представлениями у человека или машинными словами внутри программного кода искусственного интеллекта может по-разному выглядеть внешне, но по существу не будет иметь различий. Как указывают В. И. Разумов и В. П. Сизиков, «В данном понимании сам человек есть носитель ИИ. По сути, ИИ составляют внечеловеческие эффекты, которые можно объяснять проявлениями системой способности рассуждать»2. Однако если разницы между естественным и искусственным интеллектом не существует в теории, откуда она берется на практике?
1. Булычев И.И., Шутов Р.В. О сущности естественного и искусственного интеллектов // Вестник ТГУ. 2002. №1. С. 26.

2. Разумов В.И., Сизиков В.П. Естественный и искусственный интеллект и их соотношение // Вестник ОмГУ. 2019. №1. С. 102.
6 Источник различия отражен в указании на искусственное или естественное происхождение интеллекта в конкретной системе. А. В. Разин совершенно справедливо отмечает, что для сближения искусственных интеллектуальных систем с естественными от ИИ требуется схожая динамика развития: «[…] должны быть заложены принципы постадийного развития интеллектуальных схем работы искусственного интеллекта»3. В интеллекте как таковом, то есть в самом его принципе без учета происхождения, а значит, и носителя, а значит, среды, в которой носитель должен эффективно действовать, различия у человека и ИИ скорее количественные, чем качественные. Следовательно, ИИ, поскольку это именно интеллект, является в первую очередь средством и даже функцией. С другой стороны, как у функции есть носитель, так и ИИ может пониматься в совокупности со своим носителем, но тогда более уместно называть это искусственной интеллектуальной системой – ИИС. Качественное различие между системами естественного интеллекта и ИИС относится к способу функционирования. Ведь одна и та же функция может быть по-разному реализована.
3. Разин А.В. Этика искусственного интеллекта // Философия и общество. 2019. №1 (90). С. 68.
7 Для естественных систем, то есть для биологических существ, включая и человека, основой взаимодействия с миром является раздражимость или чувственность. Достаточно подробно это показано в статье Г. Е. Деева и С. В. Ермакова «О мыслящем существе и об искусственном интеллекте»4. Это свойство возникает исторически прежде, чем вообще какой бы то ни было интеллект. Последний же появляется как надстройка над чувственностью, позволяющая оперировать в первую очередь данными из окружающей среды. Развитие интеллекта, как ранее уже говорилось, позволяет решать более сложные задачи, например, составлять более длинные цепочки суждений, не теряя при этом их связности (не каждое животное, способное помыслить жилище, способно вместе с тем помыслить, например, элементарные частицы, но каждое, способное помыслить элементарные частицы, гарантированно способно помыслить и жилище). Абстракция как один из видов интеллектуальной деятельности показательна в этом отношении. Это восхождение от конкретных чувственных данных к представлениям, обобщающим информацию, полученную из окружающей человека среды, «знаки, образующие язык, порождаются внутренним усилием мышления»5. Такие абстракции, знаки вещей и явлений, сущностно вторичны по отношению к своим чувственным и конкретным значениям, тогда как «значение собственного имени – это сам предмет, обозначенный этим именем»6.
4. См. Деев Г.Е., Ермаков С.В. О мыслящем существе и об искусственном интеллекте // Успехи кибернетики. 2021. Т.2. №1. С. 35-48.

5. Даниелян Н.В. Знак и значение // Казанский лингвистический журнал. 2019. Т. 2. № 1. С. 23.

6. Фреге Г. Логика и логическая семантика: Сборник трудов. Пер. с нем. Б.В. Бирюкова. М.: Аспект Пресс. 2000. С. 233.
8 Задачи, которые ставит перед человеком природа, не требуют сверхъестественных вычислительных мощностей. Но такое требование возникает в результате культурной деятельности человека. ИИС проектировались для решения именно таких задач. Последние достаточно абстрактны, чтобы выйти за рамки эмпирических условий окружающей среды, внутри которых действует человек. Иными словами, знак первичен для ИИС так же, как означаемое первично для естественного интеллекта. Так оказалось возможным отделить интеллект от биологических систем. Однако вместе с тем, как замечают М. Кожевникова и С. В. Карпова, «Бестелесность ИИ (отсутствие cенсорности, опыта старения, заболевания и биологической смерти) ставит вопрос о его познавательных ограничениях, которые, среди прочего, перечеркивают способность к пониманию переживаний других»7.
7. Кожевникова М., Карпова С.В. Искусственный интеллект: субъект и объект // Этнографическое обозрение. 2020. №1. С. 89.
9 Намеренное усиление вычислительных мощностей позволило человеку создать ИИС, способные, например, вырабатывать оптимальные стратегии в шахматных партиях против игроков-людей любого уровня подготовки. Не так давно того же AlphaGo достигла в игре го, победив одного из лучших игроков с убедительным счетом 4:1. Это большой успех в области исчислений, и, разумеется, сейчас его область действия стремятся расширить, то есть реализовать переход от усложнения задач одного типа к увеличению разнообразия типов. Из решателя конкретных задач искусственный интеллект должен стать универсальным решателем задач.
10 Одним из типов задач, оказавшихся наиболее трудными для искусственного интеллекта и вместе с тем наиболее любопытными для людей, не связанных с ИИ напрямую, оказалась коммуникация с человеком на естественном языке. Причем от коммуникации требуется не только использование известных нам слов в понятных нам комбинациях. Это не самая трудная часть задачи. Куда труднее реализовать понимание со стороны ИИС того, что сообщает ей человек. Как таковой проблеме понимания в рамках исследований искусственного интеллекта уделено достаточно внимания. Например, А. Ю. Нестеров предлагает в решении этой трудности опираться на «редукционистский способ введения понятия понимания»8, заключая, что в таком случае «понимание будет реализовано как системное отношение к некоторому внешнему условию истинности данной системы»9 . С другой стороны, Д. Серл, а вслед за ним В.А. Ладов и Н.А. Тарабанов указывают, что, поскольку программа ИИ «[…]определена в терминах вычислительных операций на чисто формально определенных элементах, то эти операции сами по себе никак не связаны с пониманием»10. Такая сложность задачи закономерна, учитывая, что, как говорилось ранее, человек и ИИС осуществляют интеллектуальную деятельность в разных средах. Но как мы можем быть убеждены, что нас понимают, и главное, понимают верно, если коммуницируем с системой, настолько от нас отличной? Нам требуется критерий понимания, но, обращаясь к нему, мы обнаруживаем с достоверностью только то, что именно человек в наибольшей мере способен к пониманию другого человека. Отсюда следует, что сами ИИС должны стать в достаточной мере человечными, чтобы мы могли убедиться в их способности к пониманию.
8. Нестеров А.Ю. Проблема понимания и искусственный интеллект // Открытое образование. 2008. №1. С. 62.

9. Там же. С. 62.

10. Ладов В.А., Тарабанов Н.А, Искусственный интеллект: Pro et contra // Гуманитарная информатика. 2005. №2. [Электронный ресурс] URL: >>>> (дата обращения: 29.09.2021).
11 Это и создает наибольшие трудности, ведь, как уже было сказано, если различия в естественном и искусственном интеллекте на концептуальном уровне нет, значит, искать человеческое в интеллекте бессмысленно, «…способность человека к пониманию и постижению сути вещей невозможно свести к какому бы то ни было набору вычислительных правил»11.
11. Пенроуз Р. Тени разума: в поисках науки о сознании. М.–Ижевск: Институт компьютерных исследований, 2005. С. 112.
12 Тест Тьюринга для естественных систем
13 Тест Тьюринга изначально направлен на прояснение вопроса о том, способна ли машина к мышлению. Этот тест, как и статья «Вычислительные машины и разум» широко известны и не требуют отдельного пересказа здесь, достаточно будет остановиться на одной важной формулировке: «Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, ‘Can machines think?’»12. Она примечательна тем, что способность к мышлению (“think”) у машин предложено определять на основе решения (“decide”) человека-судьи. Иными словами, «компьютер разумен, если он способен внушить нам уверенность, будто мы имеем дело не с компьютером, а с человеком»13. Наиболее показательный пример несоответствия частей этого уравнения демонстрирует Р. Декарт, выводивший знание о своем собственном существовании (в качестве мыслящего) из своего собственного мышления: «Ведь если я выношу суждение, что воск существует, на том основании, что я его вижу, то гораздо яснее обнаруживается мое собственное существование — хотя бы уже из того, что я вижу этот воск. Конечно, может статься, что видимое мною на самом деле вовсе не воск; может также оказаться, что у меня нет глаз, с помощью которых я могу что-либо видеть; но, когда я вижу или мысленно допускаю, что вижу (а я не делаю здесь различия), невозможно, чтобы сам я, мыслящий, не представлял собой нечто»14.
12. Turing A.M. Computing Machinery and Intelligence // Oxford University Press. Vol. 59. No. 236 (Oct., 1950). P. 434.

13. Позднева С.П., Маслов Р.В. Проблемы гуманизма и искусственный интеллект // Цивилизация – общество – человек. 2018. №6-7. С. 20.

14. Декарт Р. Сочинения в 2 т. Т. I / Сост., ред. В. В. Соколова. М.: Мысль. 1989. 654. С. 28.
14 Ценность теста от этого, однако, не снижается, если установить, что это испытание ориентировано не только на системы ИИ, от которых требуется ввести судей в заблуждение, но на всех участников. К такому выводу подталкивает и формулировка теста, поскольку для определения человечности собеседника обычно не требуется двух переменных. Ведь если тест направлен на выявление ИИС, достаточно было бы двоих участников вместо троих: «судьи» и неизвестного, которого «судья» должен опознать в том или ином качестве. Сомнительно, что два участника, один из которых человек, внесены в тест для сравнения. Если человечность выявляется в сравнении, она становится чрезвычайно проблематичной. Однако зачем требуется усложнение теста, зачем нужна вторая переменная и что она может нам сообщить, раз уж она есть?
15 Понять это едва ли возможно без решения трех ключевых вопросов. Первый вопрос в этом случае адресован человеку, который определяет человечность. Второй – тому, чья человечность выявляется. Третий вопрос относится к ИИ системам, а именно к тому, достаточно ли нам будет хорошей имитации человечности без самой человечности.
16 В первом случае огромный интерес представляет «судья». Причем в этом тесте привлекает внимание не столько то, что «судья» способен ошибиться, приняв ответы искусственного интеллекта за человеческие. В конце концов, беседа, не подразумевающая особых каверз, под силу сегодня даже обычным чат-ботам. Куда интереснее то, что человек способен принять за искусственный интеллект другого человека. В таком случае вопрос к «судье» – это вопрос о критериях человечности, которыми он руководствуется, допуская ошибку. Где в беседе с человеком его ожидания расходятся с реальностью? И значит ли это, что у «судьи» и, следовательно, у человека нет такого критерия?
17 Судья, разумеется, не является «универсальным человеком», и его критерии суждения зависят, в том числе, от окружения, социального статуса и уровня образования, но подразумевается, что он является носителем универсальной человечности, которая позволяет ему также распознавать себя в других людях. Малочисленность ошибочных эпизодов такого рода не может нивелировать их значимость. Ведь выбор можно не совершать и сдаться, не определяя собеседника. То есть ошибка не случайна, она происходит не из-за того, что искусственный интеллект убедил «судью» в своей человечности, а из-за того, что в человечности «судью» не смог убедить человек.
18 Во втором случае интересен этот самый человек по ту сторону экрана. Он, как и судья, конкретный человек, однако предполагается, что вне зависимости от пола, возраста, образования и уровня доходов он содержит в себе нечто, что, во-первых, делает его человеком и что, во-вторых, может быть вербализовано. Однако по какой-то причине «судья» оказывается неспособен уловить этого. Иными словами, человечность отделяется от человека (что неизбежно происходит в такого рода испытаниях), но при этом никак не конкретизируется, потому что конкретизация привела бы к формализации, что значительно облегчило бы работу тестерам, а может, и вовсе сделало бы ее ненужной. Тем не менее, этого все еще не произошло.
19 Третий вопрос формируется вокруг искусственного интеллекта и опирается на вопросы к участникам-людям: ожидая человечности от машины, ожидаем ли мы человечности без человека? И какова разница между человеком и достоверной его имитацией? В более радикальной форме это вопрос о том, существует ли вообще эта разница. Бихевиористы наверняка ответили бы, что ее нет. Однако актер, играющий Гамлета, очевидно, не является самим Гамлетом. И поскольку в перспективе задачей общения в формате человек–машина является все-таки не обман, а понимание, постольку имитация человеческого не устроит нас в качестве конечного решения.
20 Человечность и ее носитель
21 Так мы оказываемся перед вопросом о том, что есть человек, но уже не как биологическое, а как «гуманитарное» существо, поскольку понимание, необходимое нам для осуществления коммуникации на человеческом уровне, – это сфера в большей степени именно гуманитарная.
22 Способ говорить – это способ выражать свои мысли, делать их доступными другим, но общения с другими не бывает без отношения к ним. Еще не начав общение, мы уже некоторым образом относимся к собеседнику. И. Кант писал, что «…человек и вообще всякое разумное существо существует как цель сама по себе, а не только как средство для любого применения со стороны той или другой воли»15. Несмотря на кажущуюся абстрактность, это конкретная и достаточно емкая формулировка. Отношение к человеку как к цели еще не есть сама этика, но именно оно делает возможной всякую этику, то есть обеспечивает саму возможность человеческих отношений как набора ожиданий и вариантов реализации тех из них, которые желательны для нас. И это уже больше похоже на задачу, с которой по силам справиться и искусственному интеллекту, и самому человеку. Вопрос лишь в том, что в этом случае мы должны обратиться к искусственной интеллектуальной системе, равно как и к человеку, не как к мыслящему, а как к этическому субъекту.
15. Кант И. Сочинения. В 8 т. Т. 4 / Под общ. ред. А.В. Гулыги. М.: Чоро. 1994. С. 204.
23 Человек – этическое существо. И надо заметить, что он настолько одинок в этом, что мы не требуем этичности ни от кого, кроме людей (а если и требуем, то едва ли имеем для этого достаточно оснований). Получается, чтобы очеловечить ИИ, его необходимо сделать этичным, и для этого как кажется, хорошо подходит кантовский критерий.
24 Однако может ли функция, каковой является ИИ, быть целью? Ответ на этот вопрос зависит от того, возможно ли, в связи с пониманием ИИ как средства, быть моральным или аморальным в отношении искусственного интеллекта. Очевидно, нельзя быть этичным с табуретом или с червем. Здесь следует оговориться, что в их отношении в принципе невозможна этика. Они внеэтичны. С высшими животными этика если и возможна, то допускается она по большей части из-за их сложного поведения, которое при желании можно сравнить и даже до некоторой степени отождествить с человеческим, но такое допущение неустойчиво, и его грань неочевидна. Отношение же человека к человеку в первую очередь именно этическое, и в этом отличие. Этика возможна в отношении человека, находящегося в коме или во сне, но невозможна в отношении молотка или бодрствующей пчелы. Отсюда следует вопрос о том, как, если не через интеллект, мы определяем, в отношении кого возможна этика, а в отношении кого – нет, поскольку этическое отношение возможно только между двумя этическими субъектами, то есть между двумя субъектами, способными быть целью друг для друга.
25 ИИ создается намеренно, намерение подразумевает целесообразность. А это значит, что нечто создаваемое либо должно быть конечной целью, либо тем, что служит другой цели. Инженерно-техническое сообщество уже успешно создает ИИ ради чего-то другого, как уже было сказано, ИИ выступает средством. От систем автопилотирования до чат-ботов – искусственный интеллект постепенно входит в повседневность людей. Это тот самый узкоспециализированный (т.н. «слабый») ИИ, который обыграл человека в шахматы и го. Чат-бот не приспособлен для управления автомобилем, автопилот не обсудит с вами последние новости. И в этом отношении трудно представить узкоспециализированный ИИ как конечную цель. То же самое можно отнести и к слабому ИИ, воплощенному в некоторой системе, то есть овеществленному интеллекту. При этом, казалось бы, создание антропоморфного, сильного ИИ является целью хотя бы для его разработчиков. Опустим, что его, вероятно, также постараются использовать как средство в дальнейшем, пока остановимся на том, что сильный ИИ – это конечная цель его создателей. То есть цель и средство совпадают. Но и слабый ИИ, который заведомо является средством, также является для разработчиков целью. Значит, для уточнения мы должны не вводить переменные, а устранить их. Мы должны говорить об ИИ как о средстве вообще и о цели вообще. 
26 Почему же тогда в принципе можно рассчитывать на какую-то возможность сделать ИИ этическим, а значит, и приближенным к человеческому? Нельзя не учитывать того, что ИИ способен (или подразумевается, что должен быть способен) не только реализовать вычислительные операции, которые сами по себе вполне безобидны, но также и принимать решения, последствия которых могут быть направлены на человека, а также в предельном случае и претворять их в жизнь. Например, если речь заходит о разработке автопилота для автомобиля. То обстоятельство, что ИИ способен, причем действуя вполне автономно, принимать решения, напрямую влияющие в том числе на жизнь и здоровье человека, сама эта автономность может становиться проблематичной. Молоток не принимает решений и тем более не имеет такой степени независимости. Иными словами, ИИ предпринимает действия в отношении человека, и это серьезная проблема, поскольку средство относится к цели. Но этика может возникнуть только между субъектами, выступающими в качестве цели в кантовском ее понимании. Заведомо относясь к самому себе как к цели, человек дополняет целевой направленностью отношение к другому человеку. Камень не имеет отношения к человеку, зато человек может иметь отношение к камню. Поэтому такое отношение остается за пределами этики. Взаимное отношение, таким образом, возможно в наиболее понятном для нас виде только между людьми. Ситуация, в которой средство каким-либо образом относится к цели, – это новый вызов, с которым человек столкнулся лицом к лицу. Представляется, что в этом случае именно разделение по принципу цель/средство может провести черту между сильным и слабым ИИ. Вероятно, когда средства, используемые машинами, станут средствами, обращенными на сами машины как на конечную цель, тогда и можно будет признавать за ними аналогичность естественным системам.
27 Есть, однако, и еще одна проблема. Она аккумулирует вопросы, которые звучали уже прежде в отношении тестов искусственных интеллектуальных систем на человечность.
28 Человек – этическое существо, но даже с таким определением возникают трудности, поскольку мы даем его себе сами. Фактически это система, которая определяется изнутри. Человек назначается, человек – это тот, кого таковым называют другие люди. С биологической точки зрения, конечно, есть устойчивые критерии, но в данном случае аналогия между искусственными интеллектуальными системами и человеком строится не по медицинским параметрам, которыми, к тому же, в ряде случаев можно пренебречь, например, с точки зрения политики.
29 Определение человека конвенционально. Меньше века назад одна часть человечества не считала людьми другую часть населения Земли, которая так же состояла из представителей homo sapiens, и под эту политику с переменным успехом даже подводили естественнонаучную базу. Гуманитарные науки уязвимы не меньше, для них понятие «человек» по сей день является преимущественно конвенциональным. В этом случае приближение искусственного интеллекта к человеческому – вопрос не параметров искусственных интеллектуальных систем, а оценки этих параметров человеком.
30 Как и люди, искусственные антропоморфные системы тоже назначаются аналогичными или не аналогичными людям. В этом отношении ярким примером будет одна из множества модификаций, которые за семьдесят лет претерпел тест Тьюринга: увеличение времени распознавания собеседника-ИИ с пяти до двадцати пяти минут общения. Это также хорошо демонстрирует С. Ю. Нечаев, приводя в качестве оснований для утверждения интеллектуальности машины критерии, выдвинутые С. Харнадом в книге “Введение в искусственный интеллект” 1985 г. и названные “Полным тестом Тьюринга”. Новые требования включают уже «не только символьное моделирование, но и физическую имитацию человека – обладание, прежде всего, зрением, способностью реагировать на звуки и другими органами чувств, которые будут определять моторные способности и сознательные действия такой механической “копии” человеческого организма»16. В этом случае нельзя не согласиться с выводом С. Ю. Нечаева: «Видимо, полнота интеллектуальных тестов этим не исчерпывается, и в дальнейшем они будут только усложняться»17. На данный момент нет серьезных оснований полагать, что когда искусственный интеллект преодолеет и очередную “планку”, его, наконец, объявят аналогичным человеческому, а не поменяют условия задачи снова.
16. Нечаев С.Ю. Китайская комната Дж. Р. Серля в контексте проблем философии искусственного интеллекта // Изв. Сарат. ун-та Нов. сер. Сер. Философия. Психология. Педагогика. 2010. №4. С. 22.

17. Там же. С. 22.
31 Искусственный интеллект, таким образом, конструируется людьми дважды: как некоторое физическое явление, включающее в себя также среду, в которой и под воздействием которой протекают интеллектуальные процессы, и как понятие. Иными словами, ИИ создается людьми и ими же определяется. Не в последнюю очередь путаница в определениях происходит из-за того, что те, кто создают, и те, кто определяют искусственный интеллект, – разные люди. В этом случае, кажется, наиболее адекватным критерием человечности будет возникновение у ИИ целевого отношения к самому себе. Системы ИИ должны стать для себя самоцелью, то есть должны решать задачи, направленные на самих себя. Вероятно, тогда сами ИИС смогут дать себе подходящее определение, определить себя как мыслящих. Человеку в таком случае останется только поверить им, так же, как мы верим в то, что другие люди способны мыслить. Это не худший вариант, ведь тест Тьюринга по своей сути выстроен на том же самом основании: человеку предлагают поверить в то, что он общается с человеком.
32 Именно с подключением к решению задач, направленных на человека, задач, направленных на самих себя, в отношении искусственных интеллектуальных систем можно будет говорить об этике и, следовательно, о решении ими одной из самых трудных на сегодняшний день задач.

References

1. Bulychev I.I., SHutov R.V. O sushchnosti estestvennogo i iskusstvennogo intellektov // Vestnik TGU. 2002. №1. S. 22-27.

2. Danielyan N.V. Znak i znachenie // Kazanskij lingvisticheskij zhurnal. 2019. T. 2. № 1. S. 18–31.

3. Deev G.E., Ermakov S.V. O myslyashchem sushchestve i ob iskusstvennom intellekte // Uspekhi kibernetiki. 2021. T.2. №1. S. 35-48.

4. Dekart R. Sochineniya v 2 t. T. I / Sost., red. V. V. Sokolova. M.: Mysl'. 1989. 654 s.

5. Kant I. Sochineniya. V 8 t. T. 4 / Pod obshch. red. A.V. Gulygi. M.: CHoro. 1994. 630 s.

6. Kozhevnikova M., Karpova S.V. Iskusstvennyj intellekt: sub"ekt i ob"ekt // Etnograficheskoe obozrenie. 2020. №1. S. 80-94.

7. Ladov V.A., Tarabanov N.A, Iskusstvennyj intellekt: Pro et contra // Gumanitarnaya informatika. 2005. №2. [Elektronnyj resurs] URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-pro-et-contra (data obrashcheniya: 29.09.2021).

8. Nesterov A.YU. Problema ponimaniya i iskusstvennyj intellekt // Otkrytoe obrazovanie. 2008. №1. S. 58-63.

9. Nechaev S.YU. Kitajskaya komnata Dzh. R. Serlya v kontekste problem filosofii iskusstvennogo intellekta // Izv. Sarat. un-ta Nov. ser. Ser. Filosofiya. Psihologiya. Pedagogika. 2010. №4. S. 19-25.

10. Penrouz R. Teni razuma: v poiskah nauki o soznanii. M.–Izhevsk: Institut komp'yuternyh issledovanij, 2005. 688 s.

11. Pozdneva S.P., Maslov R.V. Problemy gumanizma i iskusstvennyj intellekt // Civilizaciya – obshchestvo – chelovek. 2018. №6-7. S. 19-23.

12. Razin A.V. Etika iskusstvennogo intellekta // Filosofiya i obshchestvo. 2019. №1 (90). S. 57-73.

13. Razumov V.I., Sizikov V.P. Estestvennyj i iskusstvennyj intellekt i ih sootnoshenie // Vestnik OmGU. 2019. №1. S. 98-105.

14. Frege G. Logika i logicheskaya semantika: Sbornik trudov. Per. s nem. B.V. Biryukova. M.: Aspekt Press. 2000. 512 s.

15. Turing A.M. Computing Machinery and Intelligence // Oxford University Press. Vol. 59. No. 236 (Oct., 1950). P. 433–460.

Comments

No posts found

Write a review
Translate