Аннотация:тезисы на конференцию.
Логика науки традиционно исходила из представления о научном знании как дедуктивно связанной совокупности предложений.
Среди этих предложений должны выделяться аксиомы данной теории, которые должны нести в себе всю информацию данной теории. Из них должны дедуцироваться прочие предложения теории, вплоть до единичных предложений, которые должны сопоставляться с исходами эксперимента.
Таким образом, в развитой теории должны содержаться предложения более общие (законы) и более частные, даже единичные. Между ними должны иметь место строгие дедуктивные связи. Поэтому получение утверждений (частных или) единичных, описывающих протекание конкретных событий, не добавляет новой информации. Тогда не подтверждение в опыте конкретного следствия из аксиом теории немедленно сообщает теории ложность (либо подтверждение передается от следствия к аксиомам).
Однако в современную науку решительно вторгается то, что невозможно классифицировать как эмпирическое или теоретическое, концептуальное или материальное, - использование компьютеров для построения моделей таких явлений, которые затруднительно или просто невозможно изучать в контролируемых экспериментах, и в то же время в теории для их описания выводятся уравнения, которые не имеют прямого аналитического решения.
П. Галисон в своем исследовании (1) показывает, какую роль играло компьютерное моделирование при создании атомной, а особенно термоядерной бомбы. Именно тогда был создан так наз. «метод Монте-Карло», который решительно спутывает столь привычное для философов науки различение теоретического и эмпирического, концептуального и материального. На его место встает, как показывает исследование Галисона, прямо-таки постмодернистский ассамбляж разнородных элементов, видов деятельности и теорий. При этом, данные элементы не связаны между собой внутренней связью, не принадлежат одной парадигме, но оказались связанными в конкретной определенной ситуации.