межі доказовою

Межі доказовою

Грегорі Чейтін
"У світі науки" №6, 2006

З ідей складності і випадковості, вперше висловлених Готфрідом Лейбніцем в його "Роздумах про метафізику" (1686), і їх підтвердження в сучасній теорії інформації випливає, що неможливо створити "саму загальну теорію всього" в математиці.

У 1956 році журнал Scientific American опублікував статтю Ернста Нагеля (Ernest Nagel) і Джеймса Ньюмана (James R. Newman) "Доказ Геделя". Через два роки її автори випустили однойменну книгу, яка перевидається до сих пір. У ті дні я був ще дитиною, але до сих пір пам'ятаю трепет, який зазнав, відкривши її в Нью-йоркської публічної бібліотеки.

Мене вразило те, як Курт Гедель (Kurt Gödel) використовував математику, щоб показати, що її власні можливості обмежені. Він спростував висловлену близько століття тому Давидом Гільбертом твердження про існування повної теорії математики, тобто кінцевої сукупності принципів, з яких за допомогою послідовного використання правил математичної логіки можна вивести всі положення математики. Гедель показав, що існують справжні математичні твердження, які не можуть бути доведені таким чином.Його висновки засновані на двох самоотносімих парадокси: "дане твердження помилкове" і "дане твердження неможливо довести". (Для отримання додаткових відомостей про теорему неповноти Геделя можна знайти на сайті Scientific American.)

Існування специфічного строго певного числа Ω, Яке неможливо обчислити за допомогою кінцевої комп'ютерної програми, розбиває надію на створення всеосяжної математичної системи, в рамках якої можна строго довести будь-яке справжнє твердження (зображення: www.sciam.ru)

Все життя я розбирався з доказом Геделя і тепер, через півстоліття, видав власну книжку. В якійсь мірі це моя версія книги Нагеля і Ньюмана, однак доказ Геделя – не головна її тема. Моя робота заснована на вимірі інформації і доказі того, що деякі математичні факти не вдається втиснути в теорію, тому що вони занадто складні. Згідно з моїм підходу, Гедель відкрив тільки верхівку айсберга: існує безліч вірних математичних теорем, які неможливо довести, виходячи з кінцевої системи аксіом.

Складність і закони науки

Готфрід Лейбніц, якому в Лейпцигу поставлений пам'ятник, ще 300 років тому передбачив багато властивостей алгоритмічної інформації (фото з сайту www.uni-leipzig.de)

У 1686 році було видано філософське есе Готфріда Лейбніца (Gottfried W. Leibniz) "Міркування про метафізику" (Discours de métaphysique), В якому поставлено питання: як відрізнити факти, які можна описати таким собі законом, від фактів, ніяким законам не підкоряються? У четвертому розділі свого есе Лейбніц висловив дуже просту і глибоку думку: теорія повинна бути простіше даних, які вона пояснює, інакше вона не пояснює нічого. Концепція наукового закону стає безглуздою, якщо допускає необмежений рівень математичної складності, тому що в такому випадку завжди можна сформулювати закон незалежно від того, наскільки випадкові і безладні факти. І навпаки, якщо єдиний закон, яка пояснювала б якісь дані, виявляється занадто складним, то отримані дані насправді не підкоряються ніякому закону.

Сучасна математична теорія алгоритмічної інформації дозволила дати точні кількісні визначення поняттям складності і простоти. Звичайна теорія інформації визначає обсяг інформації числом бітів, необхідних для її кодування. Наприклад, для кодування простої відповіді "так / ні" потрібен один біт.На відміну від цього, обсяг алгоритмічної інформації визначається довжиною комп'ютерної програми, необхідної для генерації даних. Мінімальна кількість бітів, необхідних для зберігання програми, називається кількістю алгоритмічної інформації даних. Наприклад, нескінченний ряд натуральних чисел 1, 2, 3, … містить дуже мало алгоритмічної інформації: все числа ряду можна отримати за допомогою коротенькій комп'ютерної програми. Не має значення, скільки часу знадобиться для виконання обчислень і який обсяг пам'яті доведеться використовувати, важлива лише довжина програми в бітах. (Зрозуміло, точне значення кількості алгоритмічної інформації залежить від вибраної мови програмування, однак для розглянутих в даній статті питань це несуттєво.)

Як інший приклад візьмемо число π, Рівне 3,14159 … Кількість алгоритмічної інформації в ньому теж невелика: для послідовного обчислення всіх його знаків потрібен досить короткий алгоритм. А ось випадкове число, що містить всього мільйон знаків, скажімо, 1,341285 … 64, характеризується набагато більшою кількістю алгоритмічної інформації.Оскільки в такому числі немає визначальною структури, довжина найкоротшої програми, необхідної для його написання, буде близька до довжини самого числа:

почати
Надрукувати "1,341285 … 64"
кінець

Наукова теорія подібна комп'ютерній програмі, що пророкує результати спостережень. Корисна теорія являє собою сублімацію експериментальних даних: за допомогою кількох законів і рівнянь можна описати цілий світ різних явищ (зображення: www.sciam.ru)

(До програми повинні бути включені всі цифри, замінені трьома крапками.) Ніяка коротша програма не дозволить розрахувати подібну послідовність цифр: її неможливо стиснути, в ній немає надмірності. Найкраще, що можна зробити, – просто передати її, як вона є. Такі послідовності називаються непріводімимі або алгоритмічно випадковими.

Як же співвідносяться вищесказане з науковими законами і фактами? Ідея полягає в тому, щоб поглянути на науку очима програміста: наукова теорія подібна комп'ютерній програмі, що пророкує результати спостережень, тобто експериментальні дані. Така точка зору спирається на два фундаментальних принципи.Відповідно до першого ( "бритва Оккама"), з двох теорій, що пояснюють деякі дані, слід віддати перевагу більш просту. Інакше кажучи, найкращою теорією є найкоротша програма, що дозволяє розрахувати результати спостережень. Другий принцип, викладений Лейбніцем, в сучасних поняттях звучить так: теорія, обсяг якої в бітах дорівнює кількості пояснювальних нею даних, марна, оскільки теорією такого розміру можна описати абсолютно випадкові дані. Корисна теорія забезпечує скорочення кількості інформації: осмислення даних – це їх стиснення в короткі алгоритмічні опису. Чим простіше теорія, тим краще розуміння суті явища.

достатня причина

Лейбніц, що жив за два з половиною століття до появи комп'ютерних програм, дуже близько підійшов до сучасного поняття алгоритмічної інформації. Лейбніц знав, що все можна представити у вигляді двійкових кодів, і створив одне з перших обчислювальних пристроїв; розглядаючи поняття складності і простоти, він усвідомлював величезний потенціал обчислень. Якби Лейбніц об'єднав всі відомі йому елементи, то, швидше за все,засумнівався б у одному з підвалин своєї філософії – принципі достатньої причини, згідно з яким все, що відбувається має причину. Більш того, якщо якесь положення істинно, то воно істинне з якоїсь причини. Буває, що в суєті і хаосі повсякденному житті в це важко повірити. Навіть якщо ми не завжди можемо побачити причину (можливо тому, що ланцюжок міркувань занадто довга і заплутана), її бачить Бог. От і все! Тут Лейбніц погоджувався з давньогрецькими авторами цієї ідеї.

Математики, безсумнівно, беззастережно приймають принцип достатньої причини Лейбніца, тому що завжди прагнуть все довести. Навіть якщо істинність теореми очевидна, і мільйони прикладів підтверджують її, математики все одно вимагають узагальненого докази, на менше вони не згодні. І тут концепція алгоритмічної інформації може внести дивовижний вклад в філософські міркування про джерела і межах пізнання. Вона показує, що деякі математичні факти правдиві без жодних причин, і кидає виклик принципу достатньої причини. Як буде показано нижче, існує нескінченне число непріводімих математичних фактів, істинність яких не можна пояснити ніякою теорією.Вони не приводиться не тільки обчислювально, а й логічно. "Довести" ці факти можна тільки одним способом: визнати їх аксіомами без будь-яких міркувань.

Поняття "аксіома" тісно пов'язане з логічної непріводімим. Аксіоми – це математичні положення, які ми вважаємо самоочевидними і не намагаємося довести, виходячи з більш простих принципів. Всі математичні теорії засновані на аксіомах, з яких виводяться слідства, звані теоремами. Саме так надходив Евклід два тисячоліття тому: його праці з геометрії стали класичним прикладом математичного викладу.

У стародавній Греції, щоб переконати співгромадян проголосувати саме так, а не інакше, ви повинні були б привести їм свої доводи. Ймовірно, саме тому греки прийшли до думки, що математичні положення потрібно доводити, а не виводити дослідним шляхом. (На відміну від греків, найдавніші цивілізації Месопотамії і Єгипту, схоже, покладалися на експеримент.) Метод логічних міркувань виявився надзвичайно плідним: з його допомогою були створені сучасна математика, математична фізика і всі точні науки, включаючи технологію створення комп'ютерів – надзвичайно математичного і логічних машин.Стверджую я, що підхід, на якому математика і вся наука будувалися протягом двох тисячоліть, терпить крах? В якомусь сенсі так. Моїм контрприкладом, який ілюструє обмеженість можливостей логіки і міркувань, моїм джерелом нескінченного потоку недовідних математичних положень є число, яке я назвав "омега" (Ω).

число Ω

Перший крок до відкриття числа Ω був зроблений в знаменитій статті, опублікованій рівно через 250 років після видання есе Лейбніца. У 1936 році на сторінках "Трудов Лондонського математичного товариства" (Proceedings of the London Mathematical Society) Алан Тьюринг вперше представив математичну модель простий універсальної обчислювальної машини. Крім того, він задався питанням: чи можна визначити, зупиниться коли-небудь комп'ютерна програма чи ні? Так була сформульована знаменита проблема зупинки.

число Ω є непізнавану частина математики. Комп'ютерна програма кінцевої довжини дозволяє визначити лише кінцеве число бітів цього числа; всі наступні залишаються в темряві невідомості (зображення: www.sciam.ru) Зрозуміло, запустивши програму, ви можете згодом виявити, що вона зупинилася.Фундаментальна проблема полягає в тому, щоб вирішити, коли ви здастеся і припинить чекати, якщо програма не зупиняється. Для безлічі окремих випадків вона може бути вирішена, але Тьюринг показав, що спільного рішення не існує. Ніякої алгоритм і ніяка математична теорія не дозволять визначити, яка програма зупиниться, а яка ні. (Сучасне доказ цього положення Тьюринга можна знайти на сайті Scientific American.) До речі, вживаючи слово "програма" в сучасному сенсі, я маю на увазі сукупність самої комп'ютерної програми і даних, які вона обробляє.

Наступним кроком на шляху до числа Ω стає розгляд безлічі всіх можливих програм. Чи зупиниться коли-небудь обрана випадковим чином програма? Імовірність зупинки і є Ω. Визначимо спочатку, як здійснити випадковий вибір програми. Програма представляє собою послідовність бітів, тому для вибору значення кожного наступного біта будемо просто кидати монету. Скільки бітів повинна містити програма? Будемо кидати монету доти, поки комп'ютер не перестане запитувати наступний біт. число Ω є ймовірність того, що при введенні такої випадкової послідовності бітів машина коли-небудь зупиниться. (Чисельне значення Ω залежить від вибору мови програмування, але дивовижні властивості цього числа з ним не пов'язані. Коли ж мова обраний, Ω набуває певну величину, так само, як число π або число 5.)

оскільки число Ω висловлює ймовірність, воно повинно бути більше нуля, але менше одиниці, тому що деякі програми зупиняються, а деякі – ні. число Ω, Записане в двійковому коді, буде мати вигляд ніби 0,1110100 … Послідовність бітів після коми непріводімим, а самі вони виявляються непріводімимі математичними фактами (кожен факт полягає в тому, чи є даний біт нулем або одиницею).

Як визначається число Ω

Щоб зрозуміти, як визначається число Ω, Розглянемо спрощений приклад. Припустимо, що з усіх програм якогось комп'ютера зупиняються всього три, які представляють собою 110, 11100 і 11110, довжиною 3, 5 і 5 бітів відповідно. Якщо для вибору програм ми будемо кидати монету, щоб визначати значення кожного чергового біта випадковим чином, вірогідність отримання кожної з них будуть рівні відповідно 1/23, 1/25 і 1/25,, Оскільки ймовірність отримання одиниці або нуля для кожного біта дорівнює 1/2. Тоді ймовірність зупинки програми для такого комп'ютера буде визначатися виразом:

Ω = 1/23 + 1/25 + 1/25 = 0,001 + 0,00001 + 0,00001 = 0,00110.

Тут двійкові числа виражають ймовірність випадкового вибору однієї з трьох зупиняються програм. Оскільки програма 110 зупиняється, ми не розглядаємо програми довжиною більше трьох бітів, що починаються з 110, наприклад, 1100 і 1101, т. Е. Ми не додаємо до суми 0,0001 для кожної з них. Ми вважаємо все довші програми (1100 і т. Д.) З таким початком включеними в програму 110, яка зупиняється. Іншими словами, дані програми є самообмежуваними, оскільки після їх зупинки наступні біти не запитує.

число Ω можна визначити як нескінченну суму, і кожна програма довжиною N бітів вносить в неї свій внесок, рівний ½N. Іншими словами, кожна N-бітовая програма, яка зупиняється, додає одиницю до N-ному біту двійкового представлення числа Ω. Склавши всі біти, що відповідають зупинився програмами, ми можемо отримати точне значення Ω. Створюється враження, що Ω можна обчислити точно, як √2 або π. Однак це не так: число Ω строго визначено і має цілком конкретне значення, але розрахувати його неможливо, оскільки це дозволило б вирішити проблему зупинки, у якій дійсно немає рішення. Якщо говорити конкретніше, знання перших N бітів числа Ω дозволяє визначити, чи зупиниться коли-небудь будь-яка програма довжиною до N бітів, з чого випливає, що для знаходження N бітів числа Ω потрібно програма довжиною не менше N бітів. Зауважте, я не стверджую, що не можна визначити деяке число бітів числа Ω. Наприклад, знаючи, що комп'ютерні програми 0, 10 і 110 зупиняються, ми можемо говорити, що з точністю до перших трьох бітів Ω має вигляд 0,111. Справа в тому, що перші N бітів Ω не можна обчислити за допомогою програми, яка була б значно коротші N бітів.

Найголовніше, що Ω дає нам нескінченне число непріводімих бітів. Будь-яка програма кінцевої довжини, скільки мільярдів бітів вона б не містила, не допоможе нам визначити, що залишилися біти, яких нескінченно багато. Іншими словами, при будь-якому кінцевому наборі аксіом ми маємо нескінченне число істин, які не можуть бути доведені за допомогою цього набору.

чому число Ω нестислива?

Спробуємо довести, що число нестислива, т. Е. Його перші N бітів неможливо визначити за допомогою програми довжиною істотно менше N бітів. проаналізуємо властивості Ω в світлі поставленої Тьюрингом проблеми зупинки. Використовуємо твердження, що для програм довжиною до N бітів завдання не може бути вирішена за допомогою програми меншої довжини.

Для демонстрації несжимаемости числа Ω покажемо, що знання перших його N бітів дозволяє вирішити задачу Тьюринга для програм довжиною до N бітів. З цього буде випливати, що ніяка програма довжиною менше N бітів не може обчислити перші N бітів Ω. (Якби така програма існувала, з її допомогою можна було б обчислити перші N бітів Ω, А потім використовувати їх у вирішенні завдання Тьюринга для програм довжиною N бітів – завдання нездійсненне за допомогою такої короткої програми.)

Подивимося тепер, як знання N бітів Ω дозволить вирішити задачу зупинки і визначити, які з усіх програм довжиною до N бітів зупинятимуться. Зробимо це поетапно. на K-м етапі будемо проганяти кожну програму протягом K секунд і за кількістю зупинених програм визначати ймовірність зупинки ΩK. Вона виявиться менше Ω, Оскільки буде отримана з використанням лише підмножини програм, які врешті-решт зупиняються, тоді як Ω розраховується з використанням всіх програм. Зі збільшенням K значення ΩK наближатиметься до Ω, І все більше перших бітів ΩK ставатимуть рівними відповідним бітам Ω. коли перші N бітів ΩK і Ω співпадуть, це буде означати, що враховані всі програми довжиною до N бітів, які рано чи пізно зупиняються. (Якби існувала ще якась програма довжиною N бітів, вона зупинилася б на більш пізньому етапі K, і тоді ΩK виявилося б більше Ω, що неможливо.)

Отже, знаючи перші N бітів Ω, Можна вирішити задачу зупинки для всіх програм довжиною до N бітів. Припустимо тепер, що перші N бітів Ω можна визначити за допомогою програми довжиною істотно менше N бітів. Тоді її можна об'єднати з програмою обчислення ΩK і отримати в результаті програму довжиною менше N бітів для вирішення проблеми зупинки для всіх програм довжиною до N бітів. Однак, як сказано вище, такої програми існувати не може. Отже, для обчислення перших N бітів Ω потрібно програма довжиною майже N бітів.Цього достатньо, щоб визнати число Ω нестисливим, тобто непріводімим. (Для великих N скорочення довжини з N бітів до майже N бітів несуттєво.)

З неприводимости числа Ω випливає, що всеосяжної математичної теорії існувати не може. Нескінченна безліч бітів Ω складає безліч математичних фактів (чи є кожен обраний біт одиницею або нулем), які не можуть бути виведені з яких би то не було принципів, більш простих, ніж сама послідовність бітів. Значить, складність математики нескінченна, тоді як будь-яка окрема теорія "всього на світі" характеризується кінцевою складністю і, отже, не може охопити все багатство світу математичних істин. Зі сказаного аж ніяк не випливає, що від доказів немає ніякого толку, і я ні в якому разі не проти логічних міркувань. Насправді, Непріводімие принципи (аксіоми) завжди становили частину математики. просто число Ω показує, що їх набагато більше, ніж передбачалося раніше.

Огляд: непріводімим складність

* Курт Гедель показав неминучу неповноту математики: в ній існують істинні положення, які неможливо строго довести. особливе число Ω виявляє ще більшу неповноту і свідчить про існування нескінченної кількості теорем, які не можна вивести з кінцевого набору аксіом.

* Число Ω строго визначено і має цілком конкретне значення, але обчислити його за допомогою кінцевої комп'ютерної програми неможливо.

* Аналіз властивостей числа Ω показує, що математикам іноді слід постулювати нові аксіоми. Саме так чинять фізики, які узагальнюють результати експериментів і виводять фундаментальні закони, недоведені за допомогою логіки.

Можливо, математикам не потрібно намагатися все довести. Іноді їм слід просто додавати нові аксіоми, коли справа доходить до непріводімих фактів. Проблема в тому, щоб зрозуміти, що вони не приводиться, і визнати, що їх неможливо довести. Однак математики ніколи не здадуться, на відміну від фізиків, які завжди готові обійтися правдоподібними міркуваннями замість строгих доказів, і охоче виводять нові закони, щоб осмислити свіжі експериментальні дані. Виникає цікаве питання: чи схожа математика на фізику?

Математика і фізика

Прийнято вважати, що математика і фізика абсолютно не схожі один на одного. Фізики описують світ, виходячи з результатів експериментів і спостережень.Закони, що керують Всесвіту, будь то закони Ньютона або Стандартна модель фізики елементарних частинок, повинні встановлюватися емпірично і потім братися за аксіоми, які неможливо довести логічним шляхом, а можна лише перевірити експериментально. Математики ж в деякому сенсі незалежні від світу. Їх висновки і теореми, наприклад, властивості цілих або дійсних чисел, ніяк не залежать від навколишнього нас реальності. Математичні істини повинні бути вірні в будь-якому світі. І все ж певна схожість є. У фізиці, і взагалі в природничих науках, вчені формулюють закони, сублімуючи результати спостережень. Потім вони показують, як результати спостережень можуть бути виведені з вийшов законів. В математиці відбувається щось подібне: математики стискають результати обчислювальних експериментів в аксіоми, а потім виводять з них теореми.

Якби Гільберт мав рацію, то математика була б замкнута система, в якій немає місця новим ідеям. Існувала б статична замкнута теорія, що пояснює в математиці все, і це було б схоже на диктатуру. Щоб математика розвивалася, потрібні нові ідеї і простір для творчості. Недостатньо ретельно працювати, виводячи всі можливі наслідки з фіксованого числа базових принципів.Особисто мені більше подобаються відкриті системи, я не люблю жорстких, авторитарних способів мислення.

Імре Лакатош (Imre Lakatos), Який втік в 1956 році з Угорщини і згодом займався філософією науки в Англії, теж вважав, що математика схожа на фізику. Він ввів поняття квазіемпірічності, щоб показати, що і математики не чужі експерименти. Наприклад, ще в 1742 році Крістіан Гольдбах досвідченим шляхом прийшов до припущення, що будь-яке парне число більше двох можна представити у вигляді суми двох простих чисел. Припущення Гольдбаха успішно перевірено для чисел до 1014, Але строго не доведено. Мені здається, що математика квазіемпірічна. Іншими словами, вона відрізняється від фізики (яка істинно емпірично), але, ймовірно, не так сильно, як вважає більшість людей.

нові аксіоми

Ідея додавання нових аксіом не чужа математикам. Візьмемо для прикладу п'ятий постулат Евкліда: через обрану точку, що лежить поза прямою, можна провести тільки одну пряму, паралельну даній. Століттями геометри ламали голову, намагаючись довести це, виходячи з інших постулатів Евкліда. Не вдалося. Нарешті, математики зрозуміли, що п'яту аксіому можна замінити і отримати неевклідову геометрію криволінійних просторів, зокрема сферичного і седлообразно.Іншим прикладом може служити закон виключеного середнього в логіці і аксіома вибору в теорії множин, якими охоче користується в своїх доказах більшість математиків. Але ж є вчені, які їх не визнають і досліджують так звану інтуїционістському логіку і конструктивістську математику. Виявляється, математика поки не стала монолітною системою абсолютних істин!

Інший дуже цікавою аксіомою може стати затвердження "P не дорівнює NP", Де P і NP – назви класів задач. До класу NP відносяться завдання, для яких пропоноване рішення можна перевірити дуже швидко. Наприклад, для завдання "знайти множники числа 8 633" пропоноване рішення "97 і 89" швидко перевіряється простим перемножением. (Існує суворе визначення поняття "швидко", але подробиці тут не мають значення.) Клас P складають завдання, які можна швидко вирішити, не маючи попереднього припущення. Питання, відповіді на який не знає ніхто, полягає в тому, чи можна швидко вирішити будь-яке завдання класу NP. (Чи є спосіб швидко знайти множники числа 8 633?) Інакше кажучи, чи тотожні класи P і NP? Це один з пунктів списку "Проблем тисячоліття" Математичного інституту Клея (Clay Millennium Prize Problem), За рішення кожної з яких призначена нагорода в $ 1 млн.

Більшість фахівців з обчислювальної техніки переконане, що P не дорівнює NP, Але строге доведення поки не знайдено. Істинність такого припущення підтверджується безліччю емпіричних свідчень, але чи можна на цій підставі прийняти його в якості аксіоми? Фахівці з обчислювальної техніки саме так і вчинили. Правда, залишається питання про надійність деяких широко застосовуваних криптографічних систем: вважається, що зламати їх неможливо, але ніхто не може цього довести.

експериментальна математика

На стику фізики і математики виникла експериментальна математика: відкриття нових математичних закономірностей шляхом комп'ютерної обробки великого числа прикладів. Такий підхід не настільки переконливий, як короткий доказ, але може бути переконливіше довгого, складного докази і в деяких випадках цілком прийнятний. У минулому цю концепцію відстоювали і Дьордь Пойа (George Pólya), І Лакатош, переконані прихильники евристичних методів і квазіемпіріческой природи математики. Він застосовується і обгрунтовується в книзі "Новий вид науки" (A New Kind of Science) Стівена Вольфрама (Stephen Wolfram), Що вийшла в 2002 році.

Масштабні комп'ютерні обчислення можуть бути дуже переконливими, але позбавляють вони від необхідності доказів? І так і ні. Обчислення і докази дають свідчення різного роду. В особливо важливих випадках я вважаю необхідними і ті, і інші, оскільки докази можуть містити помилки, а комп'ютерні обчислення можуть, по нещастю, бути зупинені якраз перед виявленням контрпримера, який спростував би передбачуваний висновок.

Розглянуті питання надзвичайно цікаві, але далекі від вирішення. З часу публікації статті про доведення Геделя пройшло 50 років, а зараз, в 2006 році, ми все ще не знаємо, наскільки серйозною є неповнота, і чи не варто через неї переглянути математичні методи. Можливо, через 50 років відповідь буде знайдено.

Додаткова література:

  • Главу про Лейбніца см. В книзі: Men of Mathematics. E.T. Bell. Reissue. Touchstone, 1986.
  • Більш повні відомості про квазіемпіріческом погляді на математику см .: New Directions in the Philosophy of Mathematics. Edited by Thomas Tymoczko. Princeton University Press, 1998..
  • Gödel's Proof. Revised edition. E. Nagel, J.R. Newman and D.R. Hofstadter. New York University Press, 2002.
  • Mathematics by Experiment: Plausible Reasoning in the 21st Century. J. Borwein and D. Bailey. A.K. Peters, 2004.
  • Про філософію Геделя і зв'язку його робіт з працями Лейбніца див .: Incompleteness: The Proof and Paradox of Kurt Gödel. Rebecca Goldstein. W.W. Norton 2005.
  • Meta Math !: The Quest for Omega. Gregory Chaitin.Pantheon Books, 2005.
  • Короткі біографії математиків доступні на сайті Школи математики і статистики Університету Св. Ендрю (Шотландія).
  • Домашня станиця Грегорі Чейтіна.

Like this post? Please share to your friends:
Залишити відповідь

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: