ЛОГИКА (от греч. logik (logos) — слово, разум, рассуждение) — наука о правильных (корректных) рассуждениях. Традиционно рассуждение состоит из последовательности предложений, названных посылками, из которых следует единственное предложение, названное заключением. Рассуждение называется правильным, когда из верных посылок следует верное заключение. При этом наибольший интерес представляют дедуктивные рассуждения. В них связь между посылками и заключением опирается на логический закон. Именно поэтому от истинных посылок мы приходим к истинному заключению. Дедуктивная Л. является ядром логической науки с момента ее возникновения и до наших дней. Основная цель Л. — формализация, схематизация и систематизация правильных рассуждений.
Основные этапы развития Л. Впервые подобная задача для определенного класса рассуждений (силлогизмов) была выполнена в 4 в. до н. э. Аристотелем. Классические силлогизмы представляют собой некоторые схемы рассуждений, позволяющих из истинности двух предложений выводить истинность некоторого третьего предложения. Приведем один из самых известных конкретных примеров: «Все люди смертны. Сократ человек. Следовательно, Сократ смертен». Этот вывод имеет форму: все М суть P. S есть М. Следовательно, S есть Р. Если известно, что две посылки такого вида истинны, то всегда можно утверждать истинность заключения. Так возникла Л. как самостоятельная наука в виде силлогистики. Главная заслуга Аристотеля состоит в том, что он впервые обратил внимание на формальный характер Л. Правильность схемы силлогистического рассуждения не зависит от конкретного содержания терминов М, Р и S. Отсюда Л. стала называться формальной Л., основу которой составляла силлогистика, изложенная Аристотелем в Первой и Второй «Аналитиках». Кроме этого к логическим трудам Аристотеля относятся «Категории», «Об истолковании», «Топика» и «О софистических опровержениях». Все эти трактаты были объединены последователями Аристотеля под общим названием «Органон», что означает «орудие» (инструмент») познания.
Аристотелевская силлогистика содержала всего 24 правильные схемы рассуждений, и это не отвечало требованиям Нового времени. Начинается бурное развитие наук, особенно математики, в которой центральное место занял анализ переменных величин и изучение операций над ними. Г. Лейбницем была выдвинута идея построения универсального языка и формализация на базе такого языка не только математических доказательств, но вообще любых рассуждений. Л., по мысли Лейбница, должна была стать «искусством исчисления».
Водоразделом между традиционной и современной Л. является 1847, когда Дж. Буль опубликовал исчисление, дающее бесконечно много правильных схем рассуждений. Сегодня исчисление Буля известно как алгебра логики (термин Ч.С. Пирса), где акцент сделан на изучение свойств логических операций.
Только после того, как Г. Фреге в 1879 и Пирс в 1885 ввели в язык алгебры логики предикаты, предметные переменные и кванторы, возникла реальная возможность построения системы логики в виде дедуктивной системы. Это и было сделано Фреге, который по праву считается основателем символической Л. в ее современном понимании. Пытаясь реализовать идеи Лейбница, Фреге в работе «Исчисление понятий» изобрел символическую запись для строгих рассуждений. Хотя его нотация сейчас совсем не используется (напр., формулы рисовались в виде двумерного дерева), Фреге в действительности впервые построил исчисление высказываний и исчисление предикатов (см. Логика высказываний и Логика предикатов). Термин «символическая логика» был, по-видимому, введен Дж. Венном, опубликовавшем в 1881 под таким названием книгу.
Основы современной логической символики были разработаны итал. математиком Дж. Пеано, чья логическая запись была принята, хотя и частично в модифицированном виде, А.Н. Уайтхедом и Б. Расселом. Они издали фундаментальный трехтомный труд «Principia Mathematica», сравнимы по своему влиянию с аристотелевским «Органоном». В широком аспекте этот труд можно оценивать, как попытку реализовать идеи Лейбница об универсальном исчислении, а в узком смысле — как защиту логицизма, утверждающего, что вся, или почти вся, математика редуцируема к Л., и в ней невозможно появление каких-либо парадоксов, в частности тех, которые были обнаружены в канторовской теории множеств в конце 19 — начале 20 вв.
Иной способ защиты от парадоксов был предложен Д. Гильбертом в концепции формализма, разрабатывавшейся им начиная с 1904. Понятия формальной системы и доказательства становятся строго формализованными. С этого времени начинается совершенно новый этап развития современной Л. Изучаются не рассуждения, не отдельные их классы, не те или иные аргументы, а доказательства как формальные объекты. Появляется самостоятельный раздел Л. — теория доказательств. Для этого сами формализованные системы, напр. теория множеств, должны были быть представлены в виде аксиоматической системы, в основе которой лежит Л. исчисления. В таком случае остается только доказать непротиворечивость этой системы: логическая система является непротиворечивой, если в ней одновременно не доказуемы некоторая формула и ее отрицание.
Представление логических систем в виде исчислений может быть совершенно различным. Первоначально такое представление состоялось в форме так называемых гильбертовских исчислений, которые по сей день играют важную роль при образовании новых исчислений, а также при их классификации. Идеи, лежащие в основе гильбертовского исчисления, чрезвычайно просты: из бесконечного множества законов логики (тавтологий) выбирается некоторое конечное число «очевидных» законов, названных аксиомами, и минимальное число правил, с помощью которых из аксиом (а также из множества допущений) выводятся другие законы. Напр., в Л. высказываний можно обойтись только одним правилом вывода (modus ponens), известным еще Аристотелю: из формул ф и ф з ср выводима формула < р. Данное правило зависит только от вида формул и может, в принципе, производиться некоторым автоматическим устройством. В первопорядковой Л. (Л. предикатов) добавляются еще правила для кванторов.
Доказательством называется такая конечная последовательность формул, где любая формула есть либо аксиома, либо непосредственное следствие из каких-либо предыдущих формул по одному из правил вывода (которые могут применяться неоднократно). Доказанная формула называется теоремой. К логической системе предъявляются некоторые требования, являющиеся ее фундаментальными свойствами. Во-первых, требуется, чтобы все наши теоремы являлись тавтологиями. Это требование иногда называют теоремой о корректности. Отсюда следует фундаментальное свойство непротиворечивости. Противоречивая Л. никакой ценности не представляет. В ней истина и ложь неразличимы, и поэтому любая теорема одновременно и истинна, и ложна. Во-вторых, желательно, чтобы были доказуемы все тавтологии. Это требование называется теоремой о полноте. По существу, здесь говорится о том, что логических средств, т.е. аксиом и правил вывода, вполне достаточно для доказательства всех тавтологий. Таким образом, достигается главная цель: используя минимальные средства, можно обозреть все множество логических законов данной логической системы. Теорема о корректности и теорема о полноте вместе дают теорему адекватности: формула Ф доказуема тогда, и только тогда, когда Ф тавтология. Таким образом, понятие логического закона как общезначимой формулы (тавтологии) и понятие логического закона как теоремы здесь совпадают. Или, более общо, понятие непротиворечивости и понятие полноты совместимы. Для классической Л. высказываний теорема адекватности была опубликована в 1920 Э. Постом, а для Л. предикатов в 1930 К. Геделем.
В зависимости от способа построения выводов и доказательств, применяемых в логических теориях, кроме гильбертовских исчислений рассматриваются также исчисления натурального (естественного) вывода и секвенциальные исчисления, введенные Г. Генценом в 1935. В секвенциальных исчислениях принципы дедукции задаются правилами, позволяющими переходить от одних утверждений о выводимости (секвенций) к др. утверждениям о выводимости. Эти исчисления приобрели особое значение при доказательстве различных метатеорем (непротиворечивость, полнота, разрешимость) и, главное, в отличие от гильбертовских исчислений, поясняют смысл употребления логических операций.
Два выдающихся результата, полученных в 1931 и названных ограничительными теоремами, заставили пересмотреть сами возможности и претензии Л. Первая теорема Геделя о неполноте утверждает, что для достаточно богатых формальных систем, содержащих минимум арифметики (операции сложения и умножения), найдется такая формула Ф, что ни она, ни ее отрицание не являются доказуемыми в этой системе при условии ее непротиворечивости. Более того, вторая теорема Геделя о неполноте утверждает, что в качестве Ф можно взять утверждение о непротиворечивости рассматриваемой системы. Таким образом, программа Гильберта, в том виде, в каком он ее представил, оказалась невыполнима. В свою очередь, в 1933 А. Тарский показал, что понятие истины в достаточно богато интерпретируемых языках неопределимо, напр. арифметическая истина неопределима в арифметике. Опираясь на понятие истинности в формализованных языках, Тарский в 1936 вводит центральное для Л. понятие отношения логического следования.
Основные проблемы Л. Первая проблема состоит в том, что считать границами Л. Уже ограничительные теоремы Геделя и Тарского говорят о том, что если мы стремимся сохранить свойство дедуктивной полноты и положительное понятие истинного высказывания, то мы должны ограничиться первопорядковой Л. QL. Только в 1969 П. Линдстрем дал характеризацию QL в терминах ее глобальных теоретико-модальных свойств, которыми являются компактность и наличие несравнимых моделей (теорема Левенгейма—Скулема). Эта работа стала образцовой для важнейших исследований в Л. последней четверти 20 в. Ограниченность выразительность средств QL очевидна: она не может дать определение натурального числа, не отличает конечного от бесконечного, счетного от несчетного. К тому же оказалось, что многие лингвистические понятия и дистинкции выходят далеко за сферу применения QL. Поэтому стала применяться квалификация по множествам объектов и самим предикатам; т.е. вводятся новые кванторы, а также допускаются инфинитарные языки. Однако как бы мы не расширяли QL, в любом случае теряется или свойство компактности, или свойство Левенгейма—Скулема, или оба вместе. Дедуктивная полнота пропадает. В результате, в конце 20 в. стал обсуждаться вопрос о границах Л., о том, что считать логическими операциями, логической системой и, вообще, что есть Л., поскольку расширение QL ведет к тому, что вся, или почти вся, математика становится частью Л.
Вторая проблема касается соотношения логических систем с реальным миром. Если здесь есть связь, то весьма отдаленная и пока не выясненная. Современное исследование самих логических систем приобретает все более абстрактный характер. С одной стороны, интерес представляют уже не отдельные логические системы, какими бы богатыми возможностями они ни обладали (классическая Л., интуиционистская Л., отдельные модальные логики и т.д.), а классы логик, зачастую континуальные и упорядоченные решеточным образом. Изучаются свойства этих решеток. С др. стороны, Л. всецело имеет дело с классами структур и с некоторыми условиями замыкания на этих структурах. Тогда главным становится определимость классов структур в некоторой Л., их связи и сравнение, напр. определимость топологической структуры.
Больший смысл имеет вопрос об алгебраических структурах, которые соответствуют логическим исчислениям. Алгебраизация логики, начатая Дж. Булем, была продолжена В. Джевонсом, Ч.С. Пирсом и Э. Шредором. А. Тарский в 1935 детально определяет связь между булевой алгеброй и классическим пропозициональным исчислением, основываясь на оригинальной идее А. Линденбаума (1926), получившей название «алгебры Линденбаума». В середине 20 в. Л. Хенкином, Р. Сикорским, Е. Расевой и др. было осознано, что этот метод может быть применен и к прочим логикам. В 1989 В. Блоком и Д. Пигоцци понятию «алгебраизуемая Л.» дается точное математическое определение. Внутренним свойством Л., делающим ее алгебраизуемой, является (обобщенная) теорема адекватности. В итоге, в конце 20 в. появился термин «абстрактная алгебраическая логика», а соответствующие алгебраические представления были найдены и для силлогистики, и для Л. предикатов.
Булева алгебра есть результат алгебраизации классической Л. высказываний. Если в последней при доказательствах применяется правило modus ponens, то в алгебраических доказательствах в тождествах вместо одних терминов подставляются др. термины. По сути, эти два способа рассуждений эквивалентны, но именно логический способ ставит фундаментальную проблему: насколько дедуктивная Л. соответствует тому, как человек на самом деле рассуждает? Современная дедуктивная Л. является максимальным упрощением и сильным огрублением умственных операций человека, всего лишь некоторой конструкцией, слишком отдаленной от реальных процессов человеческих рассуждений. Однако эта конструкция весьма эффективно работает. В середине 30-х гг. 20 в. было обнаружено, что Л., основанная на принципе двузначности, имеет прямое отношение к работе переключательных электрических схем (В.И. Шестаков, К. Шеннон, А. Накасима), и в дальнейшем она легла в основу проектирования микросхем для современной цифровой электронной техники. Дополненное характеризацией вычислимости, предложенной А. Тьюрингом, А. Чёрчом и К. Геделем, это открытие привело в середине 20 в. к созданию компьютеров. В течение двух последних десятилетий многие теоретические идеи автоматического доказательства были воплощены в компьютерных программах — так называемых пруверах. Эти программы осуществляют поиск выводов в различных логических исчислениях. Таким образом, отношение логического следования было симулировано этими программами (алгоритмами). Так в 70-е гг. появился термин «компьютерная Л.». Однако между компьютерным доказательством и доказательством человека лежит целая пропасть. К преодолению этой пропасти отчасти ведет создание искусственного интеллекта (ИИ).
В настоящее время активно дискутируется следующая проблема: может ли Л. действительно стать основанием ИИ? И если да, то какая Л.? Здесь имеются серьезные трудности. Во-первых, логическая дедукция является дискретным процессом, чего нельзя однозначно сказать о человеческом мышлении. Во-вторых, вычислительные способности человека намного «сложнее» машины и, главное, человек оперирует абстрактными объектами, чего нет в компьютерной Л. Наконец, обнаружение Геделем абсолютно неразрешимых арифметических предложений, т.е. таких, которые нельзя ни доказать, ни опровергнуть (на этом основывается 1-я теорема и неполноте), говорит о существенном ограничении вычислительных возможностей машин. Зачастую утверждается, что человек использует такие процедуры (методы вычисления), которые не могут быть смоделированы машиной Тьюринга (теоретическим аналогом современного компьютера). Однако проблема заключается в том, чтобы представить в явном виде примеры подобных вычислительных процессов. Если идеальный человек есть машина Тьюринга, то он не сможет знать, которой из машин Тьюринга он является (в силу тезиса Чёрча Тьюринга все машины Тьюринга эквивалентны). Отсюда возникает классическая проблема о границах человеческого познания и, конечно, опять же о границах Л. Тем не менее обсуждение этих теоретических проблем не помешало специалистам, начиная с 1959, приступить к разработке «Л. здравого смысла» (термин Дж. МакКарти) как основы для систем искусственного интеллекта. В качестве основной ставится задача формализации обыденных рассуждений, возникающих при обсуждении и решении каждодневных проблем. Свойство монотонности дедуктивных рассуждений, при котором, если Ф следует из множества посылок Г, то Ф следует из любого непротиворечивого расширения Г, является главным препятствием для достижения этой задачи.
Недедуктивные рассуждения в Л. С развитием естественных наук и методов научного анализа, с развитием эпистемологических исследований, а особенно с появлением в последние 40 лет работ в области ИИ, все большее значение стали приобретать всевозможные не дедуктивные рассуждения или, в более узком смысле, приближенные (defeasible) рассуждения, которые поддаются логической формализации. В недедуктивных рассуждениях истинность посылок обеспечивает получение заключения, хотя возможно, что заключение окажется ложным. Зачастую это происходит при поступлении новой информации. Самыми известными классами подобных рассуждений являются вероятностные рассуждения, индуктивные рассуждения (см. Индукция) и немонотонные рассуждения (см. Немонотонные логики). Философы изучали природу подобных рассуждений, начиная с аристотелевского анализа диалектических рассуждений в «Топике». Исторически наиболее значительным трудом в этой области является книга Дж.С. Милля «Система логики», изданная в 1843. В ней отвергается силлогистика Аристотеля и предлагается новая парадигма получения знания: не «от всеобщего к частному» (дедуктивные рассуждения), а «от частного к всеобщему» (индуктивные рассуждения). В 1902 Ч.С. Пирсом вводится третий вид рассуждений — абдуктивные рассуждения (см. Абдукция): «от наиболее приемлемой информации к наилучшему объяснению». Эти рассуждения становятся важным компонентом научного метода. Крах логического позитивизма в середине 20 в. привел к отказу от рассмотрения физического мира как логической конструкции, состоящей из фактов о чувственных данных. Взамен был предложен новый взгляд на взаимоотношение между чувственным восприятием и внешним миром. Р. Чизхолм, начиная с 1957, стал развивать теорию, что чувственные явления дают хорошие, но приближенные рассуждения для веры в соответствующие факты о физическом мире. Начиная с 1967, идеи Чизхолма были развиты Дж.Л. Поллоком, утверждавшим, что на основании всех фактов, которыми мы располагаем, заключение считается обоснованным, если оно подтверждено не опровергнутым рассуждением, чьи посылки основаны на этих фактах. Все это стало играть важную роль в современной эпистемологии не только в отношении к чувственному знанию, но также в отношении к др. источникам знания: к памяти, воображению и даже к свидетельствам. С пионерской работы Дж.М. МакКарти и П.Дж. Хэйса «Некоторые философские проблемы с точки зрения искусственного интеллекта», вышедшей в 1969, началась эра развития логических систем для ИИ. В этой работе был развит формальный язык под названием «исчисление ситуаций» для применения в экспертных системах, пытающихся моделировать изменения и взаимосвязи среди области объектов и действующих лиц. Впоследствии МакКарти вводит логический принцип очерчивания (circumscription): предположение о том, что реальная ситуация настолько свободна от ненормальностей и странностей, насколько позволяет предположить наше знание данной ситуации. В 80-е гг. 20 в появляются различные системы приближенных рассуждений для применения в ИИ: логики умолчаний, немонотонные модальные логики, автоэпистимические логики (моделирующие чисто интроспективные рассуждения), формализация оператора «все, что я знаю».
Однако даже в формализованных системах приближенных рассуждений возникают серьезные проблемы с теоремой дедукции, с понятием отношения логического следования, а вопрос о теореме адекватности зачастую вообще не ставится, поскольку класс истинных высказываний не является рекурсивно перечислимым. В итоге, главной функцией Л., используемой в ИИ, является следующее: Л. не говорит о том, как человек рассуждает, а лишь указывает, как следует правильно рассуждать и как не следует рассуждать; т.е. Л. здесь носит нормативный характер.
Менталитеты Л. Почти одновременно с зарождением Л. в Древней Греции, некоторые элементы ее появились в Индии и Китае. Интересное преломление древнегреческой Л. произошло в арабской философии. В 5 в. в буддийскую философскую школу ньяя Асангой был введен пятичленный силлогизм, в отличие от трехчленного у Аристотеля. Комментарии «Органона» Аверроэсом (12 в.) сыграли центральную роль в расцвете арабской Л. Интересно, что главные логические понятия «истина» и «ложь» оказались модализованными: «необходимо истинно», «необходимо ложно». В то время как древние Грецию и Индию объединяет общая им индоевропейская языковая основа, логическая мысль Китая развивалась совершенно на ином языковом фундаменте. Особый интерес здесь представляет система 64 гексаграмм «И цзин». Можно предположить, что в ряде случаев числа трактуются как пропозициональные переменные. С проникновением буддийской Л. в Китай, когда в 7 в. было переведено главное сочинение Дигнага «Об источниках познания», начатые исследования в области формальной Л. конфуцианцами почти прекратились. Конечно, было бы интересно иметь какие-либо свидетельства, напр., о логике ацтеков или об африканской логике. Как бы то ни было, логика реализовалась лишь в западноевропейском менталитете. Это прямое наследие древнегреческой цивилизации.
См. Символическая логика, Философская логика, Неклассические логики.
А.С. Карпенко
Лит.: Карпенко А.С. Предмет логики в свете основных тенденций ее развития // Логические исследования. Вып. 11. М., 2004; Kneale W., Kneale M. The Development of Logic. Oxford, 1962; Gabbay D., Woods J. (eds.) The Handbook of the History of Logic (multivolume). Vol. 1. Greek, Indian and Arabic Logic. Dordrecht, 2004; Rahman S., Symons J., Gabbay DM., J.-P. van Bendegtm (eds.) Logic, Epistemology and the Unity of Science. Vol. 1. Dordrecht, 2004.
Энциклопедия эпистемологии и философии науки. М.: «Канон+», РООИ «Реабилитация». И.Т. Касавин. 2009.