Журнальный клуб Интелрос » Философия науки » №7, 2001
Парадигмы в контексте истории науки
При анализе истории познания в глобальном плане отчетливо выделяется ряд основных этапов. Прежде всего рассматривается этап, олицетворяемый классической механикой. Становление механики ознаменовало собою становление научного метода, становление естествознания как основополагающего компонента науки вообще. Формулировкой Ньютоном основных законов механики завершился первоначальный и чрезвычайно длительный этап познания природы. Этот этап с его достаточно расплывчатыми, во многом неопределенными и разрозненными представлениями можно назвать описательным. На смену ему пришел этап аналитический, основанный на опыте и математике как форме выражения исходных, фундаментальных законов природы. Судьбы теоретического естествознания стали неразрывно связываться с судьбами математики и эксперимента.
Успехи классической механики в познании природы огромны и несомненны. Ее разработка оказала громадное воздействие на все последующее интеллектуальное развитие человечества. Лагранж называл Ньютона не только величайшим, но и самым счастливым гением: «Систему мира можно создать только один раз»[1]. На протяжении почти трех столетий механика Ньютона определяла развитие по крайней мере всех наук о природе. Механика положила начало научному обоснованию и проектированию техники, различных механизмов и машин. Другими словами, механика явилась важнейшим стимулом интеллектуального и материально-практического развития общества.
Воздействие механики на научное мышление столь велико, что на ее основе, на основе ее методов и представлений сложилась достаточно целостная базисная модель мира, сложилась вполне определенная парадигма научного мышления. Отличительной чертой этой парадигмы является то, что все закономерности природы мыслились наподобие законов механики и соответственно все они относились к одному классу, который первоначально получил название динамических закономерностей, а ныне их точнее называть закономерностями жесткой детерминации (поскольку этот класс закономерностей не обладает монополией на познание динамики реальных процессов). Этот этап развития науки был весьма длительным, охватывает период с XVII до середины XIX веков и характеризуется как классическая наука.
Со второй половины XIX и до середины XX века ведущие научные теории и направления исследований основывались на вероятностных идеях и методах, математическим выражением которых явилась теория вероятностей. На вероятностные представления практически уже опирается теория эволюцииДарвина, хотя в ходе ее становления еще не применялся аналитический аппарат теории вероятностей. Проблема эволюции органического мира чрезвычайно сложна. В учении Дарвина сформулированы лишь исходные понятия феноменологического порядка, прежде всего – изменчивости, наследственности и естественного отбора. Анализ взаимоотношений между этими понятиями немыслим вне того, что называется вероятностным образом мышления. Интенсивные применения вероятностных идей и методов в биологии связаны со становлением и развитием генетики, исходные законы которой являются вероятностными. В ходе разработки генной теории происходило не только применение, но и совершенствование методов собственно теории вероятностей как математической дисциплины.
Наибольший резонанс в методологии науки идея вероятности вызвала в процессе становления во второй половине XIX века классической статистической физики как учения о структурных свойствах вещества. На путях развития статистической физики произошло окончательное утверждение физического атомизма – были получены непосредственные доказательства реальности атомов и первые данные о параметрах их структуры. Можно сказать, что именно вероятность утвердила в науке атом, вывела его на орбиту прямых физических исследований.
Включенность вероятности в структуру научных методов привела физику в начале нашего века к новому грандиозному прорыву в глубь материи – в структуру атома и атомных процессов, а затем – и в мир элементарных частиц. Эти знания воплотились в квантовой теории, разработка которой ознаменовала раскрытие весьма необычных, диковинных свойств микромира, понимание которых восхищает и озадачивает ученых и по сей день.
Подытоживая сказанное о воздействии вероятности на развитие познания, можно сказать, что вероятность является знаменем теоретического естествознания второй половины XIX – первой половины XX веков или же, как сказал К.Поппер, что вероятность имеет «космологическое значение»[2]. Фундаментальное значение вероятностных идей и представлений в развитии науки подчеркивалось многими выдающимися ее представителями. Н.Винер, связывая с именем Гиббса радикальное становление вероятности в науке и подчеркивая ее решающее значение в развитии современной физики, писал, что «именно Гиббсу, а не Альберту Эйнштейну, Вернеру Гейзенбергу или Максу Планку мы должны приписать первую великую революцию в физике XX века»[3].
Не менее характерно и мнение В.Паули – выдающегося физика-теоретика середины XX века. «Я уверен, – заявлял он в письме М.Борну, – что статистический характер Ψ-функции (а таким образом, и законов природы)... будет определять стиль законов в течение по крайней мере нескольких столетий. Возможно, что позднее, например в связи с процессами жизни, будет найдено нечто совершенно новое, но мечтать о возвращении к прошлому, к классическому стилюНьютона-Максвелла... – это кажется мне безнадежным, неправильным, признаком плохого вкуса»[4]. На базе идей и методов теории вероятностей выработались представления о новой базисной модели мира и его познания, о новом классе законов – о статистических закономерностях, которые в эвристическом плане рассматриваются как более действенные и значимые[5]. Вероятность олицетворяет собою этап неклассической науки. Соответственно можно говорить о великой вероятностной революции в науке, о вероятностной парадигме.
Во второй половине XX века все сильнее стала ощущаться потребность в новой базисной модели мира и его познания, в разработке новой парадигмы научного мышления. Последнее проявилось в интенсивном развитии в середине нашего века общей теории систем (системного подхода), в разработке в это же время идей кибернетики как науки об основах процессов управления в сложных динамических системах, а уже в сравнительно последнее время – в разработке идей самоорганизации и синергетики, в становлении «нелинейного мышления». Эти концептуальные преобразования обусловлены переходом овременной науки к аналитическим исследованиям сложноорганизованных систем. Вырабатываются различные методы исследования таких систем, нарабатываются базисные понятия для выражения существа нового концептуального видения мира. Соответственно стали говорить о разработке оснований постнеклассической науки. Объединяющим началом различных подходов в анализе этих оснований выступает идея нелинейности.
Постановка проблемы
Если признать, что знания развиваются последовательно и преемственно, то естественно предположить, что разработка новых концептуальных воззрений опирается на вероятностные концепции и является обобщением последних. Однако реально подобное обобщение выступает весьма своеобразно. Широко принято рассматривать концепцию жесткой детерминации и вероятностные взгляды на мир как два предельных, диаметрально противоположных подхода к анализу бытия и познания. Соответственно новая парадигма выступает как своеобразный синтез концепции жесткой детерминации и вероятностного подхода. О том, что такая постановка вопроса крайне существенна, говорят весьма многие высказывания авторитетных ученых и методологов науки. Прежде всего она встречается в работах, посвященных анализу нелинейных процессов. Связывая познание сложных систем, познание нелинейных процессов с разработкой «стохастической динамики», известные представители нижегородской школы изучения нелинейных процессов А.В.Гапонов-Грехов и М.И.Рабинович заявляют: «В последние годы интерес физиков к «стохастической динамике» непрерывно возрастает: это связано как с появлением большого числа конкретных задач в различных областях, так и с наметившейся возможностью продвинуться в фундаментальной проблеме о связи динамических и статистических законов физики, прежде противопоставлявшихся друг другу»[6]. Здесь ясно заявлено, что проблема связи динамических (жесткодетерминированных) и статистических законов физики является фундаментальной и ныне находится в процессе своего решения.
Интересно рассматриваемая проблема ставится в школе И.Пригожина, исследующей концептуальные преобразования в современном научном мышлении. «Мы должны отыскать, – пишут И.Пригожин и И.Стенгерс, – узкую тропинку, затерявшуюся где-то между двумя концепциями, каждая из которых приводит котчуждению: концепцией мира, управляемого законами, не оставляющими места для новации и созидания, и концепцией, символизируемой Богом, играющим в кости, концепцией абсурдного, акаузального мира, в котором ничего нельзя понять»[7]. И далее: «То, что возникает буквально на наших глазах, есть описание, промежуточное между двумя противоположными картинами – детерминистическим миром и произвольным миром чистых событий. Реальный мир управляется не детерминистическими законами, равно как и не абсолютной случайностью. В промежуточном описании физические законы приводят к новой форме познаваемости, выражаемой несводимыми вероятностными представлениями»[8].
Крайне любопытно относительно рассматриваемой проблемы высказался один из самых авторитетных философов XX века – К.Поппер. Поппер уделял пристальное внимание анализу природы вероятности, выдвинул свою ее трактовку (вероятность как предрасположенность). Одну из своих лекций он озаглавил – «Об облаках и часах...». Понятие облака у него символизирует вероятностный образ мышления, а часы – образ мышления, основывающийся на принципе жесткой детерминации. «Облака, – заявляет К.Поппер, – у меня должны представлять такие физические системы, которые, подобно газам, ведут себя в высшей степени беспорядочным, неорганизованным и более или менее непредсказуемым образом. Я буду предполагать, что у нас есть некая схема или шкала, в которой такие неорганизованные и неупорядоченные облака располагаются на левом конце. На другом же конце нашей схемы – справа – мы можем поставить очень надежные маятниковые часы, высокоточный часовой механизм, воплощающий собою физические системы, поведение которых вполне регулярно, упорядочено и точно предсказуемо»[9]. Соответственно этому – «Огромное количество различных вещей, естественных процессов и явлений природы располагается в промежутке между этими крайностями: облаками слева и часами справа»[10]. Наш мир при таком подходе представляет собою «взаимосвязанную систему из облаков и часов, в котором даже самые лучшие часы в своей молекулярной структуре в определенной степени оказываются облакоподобными»[11]. Добавим еще, что используя такой язык, Поппер характеризует концепцию жесткой детерминации как «все облака суть часы», а абсолютизацию случайности (сугубо вероятностного подхода) – как «все часы суть облака».
Приведем еще высказывание известного советского философа М.Э.Омельяновского: «Динамические и статистические законы, взятые сами по себе, не выражают достаточно полно закономерностей природы. Только рассмотрение этих законов в определенном единстве позволяет понять законы природы полнее и глубже»[12].
Как видим, проблема взаимосвязи, проблема синтеза концепций жесткой и вероятностной детерминаций ставится весьма настойчиво. Рассматривая их взаимоотношение с наиболее широких, с эволюционных позиций следует подчеркнуть, что жесткая детерминация символизирует собою неумолимо наступающие события, символизирует неизменное, сохраняющееся начало мира, а вероятностная детерминация – наличие внутренней независимости во взаимосвязях событий, наличие подвижного, изменчивого, лабильного начала мира, дающего возможность возникновения истинно нового, ранее в эволюции не имевшего места. Другими словами, исследование проблемы синтеза жесткой детерминации и вероятностной детерминации направлено на продвижение по пути раскрытия закономерностей взаимопроникновения жесткого и пластичного начал мира.
Жесткая детерминация
Проблема синтеза жесткой детерминации и вероятностной детерминации в развитии науки поставлена, она не решена, но находится в процессе своего решения. Многие направления исследований, анализирующие сложноорганизованные системы, их структуры и эволюцию, вносят свой вклад в это решение. Сюда можно отнести и теорию катастроф, и «приложения» идей и методов топологии в познании сложности. Основное русло анализа рассматриваемой проблемы представлено разработкой общей теории динамических систем, которая все в большей степени учитывает стохастический (статистический) аспект. Встает вопрос, каково же методологическое обеспечение исследований по данной проблеме. Основные возможности методологии заключаются прежде всего в раскрытии тех общих идей, на которых базируются представления о жесткой и вероятностной детерминациях и которые следует рассматривать в их сопоставлении.
Концепция жесткой детерминации представляет собою весьма развитую систему взглядов, именно – систему, что не всегда учитывается. При ее рассмотрении в качестве основной, а порою и единственной черты обычно отмечается строго однозначный характер всех без исключения связей и зависимостей, отображаемых в рамках соответствующих теорий и представлений. Если анализируются параметры некоторого отдельного объекта или системы, то все взаимосвязи между ними могут иметь лишь строгое, взаимнооднозначное соответствие. Если речь идет о количественных изменениях значений параметров, то эти изменения могут происходить также лишь строго однозначным образом. Если исследуется поведение некоторого объекта – как входящего в некоторую систему, так и вне таковой, – то оно определяется единственным образом во всех своих деталях. В негативной формулировке сказанное означает: там, где нет строгой однозначности в связях, нельзя говорить и о закономерностях. Более того, с точки зрения рассматриваемого класса закономерностей в тех случаях, когда имеет место какая-нибудь неоднозначность или неопределенность в связях, нельзя вообще говорить об истинной закономерности: в этих случаях мы имеем дело лишь с неполным выражением наших знаний об исследуемых объектах, лишь с подходом к истине, но еще не владеем самой истиной.
Подобная трактовка концепции жесткой детерминации навеяна классической механикой, абсолютизацией ее базисных идей. Соответственно представления о жесткой детерминации являются, по существу, выражением логики построения научных теорий, характеризующих классическую науку. Эти представления в процессах анализа систем исключают какую-либо автономность, самостоятельность действий элементов и подсистем в составе системы. В этом состоит их сила и их слабость: они обеспечили прогресс классической физики, а под ее воздействием – и классической науки в целом, но они оказались непригодными для отображения структуры и поведения сложноорганизованных систем.
Если положить концепцию жесткой детерминации в основу философских идей о закономерностях природы и ограничиться этим, то с неизбежностью будем утверждать, что задача научного исследования состоит в раскрытии (установлении) однозначных связей между всеми параметрами (свойствами) изучаемых объектов и систем и что только такие связи и взаимоотношения могут существовать в реальности. Последнее представляет абсолютизацию схемы простых динамических закономерностей. Соответствующая философская концепция получила название лапласовского, или классического, детерминизма и мира в целом.
Чтобы яснее осознать, что же такое жестко детерминированная структура, произведем мысленный эксперимент – представим себе некоторый коллектив индивидов, действующих по принципам жесткой детерминации. Последняя означает, что любая уловимая деталь поведения, начиная от героических актов самопожертвования и кончая шевелением мизинца, каждого из индивидов единственным образом обусловлена структурой системы. Если в таком коллективе одного из индивидов наделить инициативой, то легко заметить, что функционирование такой системы станет возможным лишь за счет лишения инициативы всех других, ибо при наличии инициативы уже у двух индивидов функционирование системы будет парализовано, поскольку инициатива предполагает определенные самостоятельные действия и решения.
Жесткость связей имеет своей оборотной стороной их качественную равноценность, что является второй существенной характеристикой концепции жесткой детерминации. Согласно такому подходу любая рассматриваемая связь, независимо от природы соответствующих свойств или параметров, в равной мере необходима. Действие, вклад каждой связи в общий результат может отличаться лишь интенсивностью, количественно, но не характером, не особенностями своей внутренней природы. На традиционном философском языке идея равноценности любых параметров, характеризующих состояние исследуемого объекта или системы, означает, что все параметры в рамках соответствующих теорий рассматриваются как одинаково необходимые. При этом абсолютизация роли и значения в развитии познания простых динамических закономерностей привела к жесткому противопоставлению необходимости и случайности, в результате чего все параметры, относящиеся к классу случайных, исключались из теории. Никакой логической (качественной) градации в самих необходимых параметрах или связях не проводилось, разве лишь в отношении величины, силы, количественного воздействия различных параметров на искомый результат.
Представления о новых видах взаимосвязей, выходящих за рамки жесткой детерминации, складывались в ходе познания сложных систем. Эти вопросы интенсивно рассматривались в ходе становления кибернетики и проявились в процессах разработки идей об уровнях кодирования информации и уровнях управления. Здесь следует отметить выдвинутые И.М.Гельфандом и М.Л.Цетлиным представления о хорошо организованных функциях[13]. Интересны также идеи Н.М.Амосова об уровнях кодирования информации[14]. Из рассматриваемых Н.М.Амосовым положений о перекодировании информации высшими кодами отметим следующие:
1. Высший код получается при интегрировании информации, переданной низшим кодом, т.е. знаки высшего кода представляют собой характеристики определенных систем, образованных из знаков низшего кода.
2. Высший код является более емким, более абстрактным. При переходе к высшему коду большие порции информации заменяются одним знаком кода.
3. Выделение знаков высшего кода из порций информации, переданной низшими кодами, осуществляется не жестко детерминированным образом.
4. Из информации, переданной низшим кодом, можно вывести много высших кодов, если известны способы перекодирования. Обратная процедура невозможна без значительной потери информации.
5. Полнота информации о системах достигается только в том случае, когда она включает язык низшего кода.
6. Чем сложнее система, тем большее число уровней и способов кодирования информации она включает в себя.
Рассматриваемые взаимоотношения между кодами, между знаками, относящимися к различным уровням кодирования информации, по существу выражают те основные проблемы и достижения, которые встают при анализе современных процессов обобщения в развитии знаний. Знаки, относящиеся к различным уровням кодирования информации, и есть понятия различной степени общности. Общее не есть некоторое механическое объединение исходных единичных понятий. Общее выражает наличие определенной организации, определенной системы взаимосвязей в массе явлений. Характер взаимоотношений между параметрами, выражающими различные уровни кодирования информации, уже давно угадывался при анализе взаимоотношений между менее общим и более общим понятиями. В частности, эти аспекты можно обнаружить и в неоднократно рассматриваемом в истории философии ряду понятий: «яблоко» – «плод» – «органическое тело» – «материальный объект». Суть дела раскрывается уже при анализе взаимоотношений понятий «яблоко» и «плод»: как они определяются, как перейти от одного понятия к другому (в частности, существует ли жестко определенный дедуктивный путь от понятия плода к понятию яблока?) и т.д.
Все сказанное о равноценности взаимосвязей означает, что эта идея включается в представления о жесткой детерминации, но в процессе развития познания она подвергается все более усиленному критическому анализу.
Еще одна важнейшая особенность концепции жесткой детерминации состоит в том, что здесь исходят из признания того, что любые изменения в поведении объектов и систем целиком и полностью определяются внешними воздействиями, внешними условиями. Подобный подход к анализу процессов изменения состояний исследуемых объектов и систем также навеян классической механикой, ее трактовкой. В механике любое изменение в поведении тел рассматривается как результат действия на них некоторых сил, т.е. внешнего принуждения. Ничто не может изменяться самостоятельно, но каждое изменение служит доказательством наличия действующей внешней причины, некоторого активного тела. Представления о внешней детерминации будучи распространенными на всю Вселенную приводили к представлениям о Великом часовщике или Первотолчке. Другими словами, только внешняя по отношению ко всей Вселенной сила могла привести ее в движение и производить в ней изменения.
Доктрина внешних причин фактически рассматривает материальные объекты и тела как пассивные, т.е. не имеющие активного начала в самих себе. Тела лишь воспринимают внешние воздействия, но не являются причинами изменения самих себя. Такой общий подход к раскрытию природы причинных воздействий широко просматривается в истории науки и философии. Так широко известно перипатетическое изречение: «Все, что движется, движется чем-то другим». Картина мира, разработанная на базе классической механики, практически наследует такой взгляд на причины изменений в движении материальных тел. Вместе с тем следует отметить, что в истории науки и философии также широко представлены и иные идеи, признающие внутреннюю активность и самодвижение материи. Такие взгляды уже представлены в античном материализме, в частности в представлениях о спонтанных отклонениях атомов в своем движении. Это же направление мысли просматривается в трудах Бруно и Спинозы. Последний ввел действующую внутреннюю причинность, что получило свое развитие в представлениях Лейбница о монадах. Дальнейшую разработку эта идея получила в философии Гегеля и Маркса.
Представления о внутренних причинах изменений поведения объектов и систем получали свое обоснование в ходе познания живых систем. Наличие внутренней активности, внутренних причин, воздействующих на поведение живых систем, является одной из определяющих их особенностей. Развитие этой идеи по отношению к обществу привело к представлениям о свободе как условии развития и человека, и общества. Интересно также отметить, что при анализе практически любых материальных систем и процессов прежде всего обращают внимание и учитывают действие внешних факторов на исследуемые системы, хотя в дальнейшем познание переходит на изучение их внутренней природы.
Современные представления об изменениях в поведении и развитии объектов и систем основываются на учете и внешних, и внутренних причин, взаимопроникновения последних. Учет представлений о внешнем и внутреннем, особенно – современная разработка учения о процессах самоорганизации, и высветили то, что одной из важнейших особенностей концепции жесткой детерминации, а тем самым – и классических воззрений, является признание всевластия внешних воздействий, внешних детерминантов и обстоятельств в анализе поведения объектов и систем.
Вероятностная детерминация
Вероятностная концепция, как и парадигма жесткой детерминации, представляет собою систему взглядов, лежащих в основе применения идей и методов теории вероятностей к познанию природы. Ее становление и расцвет приходятся, повторим, на вторую половину XIX – первую половину XX веков. Однако даже во второй половине XX века вопросы концептуального осмысления вероятности, раскрытия ее природы во многом остаются открытыми. На это в 70–80 годы обращали внимание многие исследователи, например Б.В.Гнеденко[15] и П.Суппес[16]. Современную ситуацию довольно полно обрисовал Э.Агацци: «Вероятностный образ мышления, можно сказать, проникнул почти в каждую область нашей интеллектуальной жизни. Однако было бы трудным дать подробный перечень «позитивных» характеристик, которые можно рассматривать как идентифицирующие признаки этого образа мышления. Каждый скорее скажет, что этот образ мышления характеризуется определенными «негативными» признаками, т.е. некоторым подходом, который выступает как отрицание хорошо установленных предположений, концептуальных структур, взглядов на мир и тому подобного. И именно вследствие такой оппозиции традициям вероятностный подход воспринимается как выражение «современного» интеллектуального стиля»[17].
При характеристике вероятностного образа мышления основное внимание, действительно, уделяется тому, что же он отрицает в предшествующем познании, в ранее выработанных картине мира и стиле научного мышления, а не тому, что же нового и специфического он вносит в мышление и науку. В современных философско-методологических исследованиях широко утверждается, что вхождение вероятности в познание ведет к отрицанию концепции жесткой детерминации (как тотальной однозначности всех взаимосвязей и взаимодействий в мире), ведет к отрицанию базовой модели бытия и познания, выработанной прежде всего на основе классической науки. Но что же позитивного, более совершенного вероятность предлагает?
Какая же новая базовая модель бытия и познания утверждается в науке на основе теоретико-вероятностных методов исследования? Каковы «позитивные» особенности вероятностного стиля научного мышления? Такие вопросы, судя по философско-методологической литературе, во многом остаются открытыми.
Секрет успеха вероятности – в новом видении мира, его устройства, эволюции и познания. Это новое видение мира связано прежде всего с идеей системности, с системным подходом, с языком системных исследований. Базовыми понятиями системного подхода являются понятие целостных свойств системы, понятия структуры, подсистем и элементов. Системный подход к анализу вероятности определяется уже тем, что основным, центральным понятием теории вероятностей является понятие вероятностного распределения (или просто – распределения). Теория вероятностей и представляет собою абстрактную науку об оперировании распределениями. В последнее входят способы задания и выражения распределений, анализ их свойств и специальных видов, раскрытие закономерных взаимосвязей распределений различных величин при исследовании некоторых объектов и процессов, законы изменения распределений во времени. Такая роль распределений обусловлена тем, что они представляют собою структурные характеристики определенного класса систем, описывает последние с точки зрения их внутренней дифференциации и интеграции, расчлененности и общности.
Осмыслить существо вероятностного видения мира, раскрыть его своеобразие – задача далеко не из простых. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Совместный анализ абстрактных форм и их реальных «наполнений» и позволяет сделать более осязаемыми основания вероятностного видения мира. При таком подходе прежде всего необходимо исходить из того, что вероятность «породила» в науке новый класс закономерностей – статистические закономерности, которые выражают зависимости между распределениями величин, характеризующих исследуемые системы. Соответственно выработались представления о статистических системах, анализ особенностей и структуры которых раскрывает своеобразие вероятностного образа мышления. Если прообразом жесткой детерминации явилась механика Ньютона – наука о свойствах и движении отдельных макротел, то прообразом статистических систем, исходной их моделью являются газы. Газ представляет собою агрегатное состояние вещества, в котором его частицы не связаны или же весьма слабо связаны силами взаимодействия и движутся свободно, заполняя весь предоставленный им объем. Базовой является модель идеального газа. Идеальным называется газ, частицы (молекулы) которого рассматриваются как невзаимодействующие друг с другом материальные точки. Невзаимодействие здесь означает, что между частицами газа нет постоянно действующих, устойчивых взаимосвязей, что поведение частиц газа не коррелированно друг относительно друга. Эту особенность внутренней структуры газов обобщенно принято характеризовать через категорию случайности – поведение молекул в газе носит чисто случайный характер. Следует специально оговорить, что трактовка понятия случайности содержит многие трудности. Как сказал В.В.Налимов, «чтобы хоть как-то понять природу случайного, западной мысли понадобилось более двух тысяч лет»[18]. Нередко, особенно в повседневном языке, случайность трактуют как нечто побочное, второстепенное, несущественное в отношении к исследуемым объектам и процессам. Однако случайность есть характеристика определенных структур и наиболее существенное, что заключено в этом понятии, выражается через представления о независимости.
Соответственно сказанному статистические системы суть системы, образованные из независимых или квазинезависимых сущностей. Эта независимость весьма своеобразна – она соотносится с определенной внутренней устойчивостью систем, с наличием целостных характеристик этих систем. Частицы в статистических системах характеризуются некоторым свойством, которое изменяется при переходе от одной частицы к другой случайным образом, т.е. значение рассматриваемого свойства у одной из частиц не зависит и не определяется значениями этого свойства у других частиц. Вместе с тем в массе своей число частиц с определенными значениями таких свойств достаточно устойчиво. Соответствующие величины в теории вероятностей называются случайными величинами, а устойчивость соотносится с вероятностью и распределениями вероятностей.
Встает интригующий вопрос – а как возможно образование систем из независимых сущностей? Что же «цементирует» статистические системы, благодаря чему они приобретают некоторую целостность в своих проявлениях? Системный подход обычно предполагает, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между ее элементами существовали достаточно устойчивые связи, которые внутренне «цементируют» системы, придают им единство во внешних проявлениях. Если таких взаимосвязей нет, если мы имеем дело с независимыми сущностями, то что же придает этим системам целостность, наличие устойчивости? Специфика статистических систем заключается в том, что целостность, наличие внутренней устойчивости им придают внешние условия, внешнее окружение, внешние, а не внутренние силы. Недаром газ как базовая модель статистических представлений при теоретическом анализе всегда рассматривается как заключенный в некоторый сосуд, размеры которого могут быть весьма произвольными. Если нет внешних, достаточно определенных условий, то элементы системы «расползаются» по неограниченному пространству окружения. Системы в таких случаях не могут проявлять себя целостным образом по отношению к внешнему окружению. Следует добавить, что само определение вероятности всегда опирается на задание условий образования исходного массового явления.
Системы, которым придают целостность внешние обстоятельства, внешнее окружение, представляют собою простейший класс систем. Вместе с тем в реальности, в анализе материальной действительности они распространены весьма широко. Особое внимание им уделяют при рассмотрении биологических процессов, процессов в живой природе. Такие системы А.А.Малиновский называет «дискретными» или «корпускулярными». Эти системы образуются сочетанием «в основном однотипных элементов, не связанных между собой, как правило, прямой связью, но объединенных только общим отношением к окружающей среде». Таковы «в живой природе организмы одного вида, приспособленные, как правило, к одинаковой внешней среде, и живут поэтому в одной местности. Таковы же клетки одной ткани – эритроциты и даже, например, неподвижные специфические клетки печени. Потеря или гибель части из них компенсируются до некоторого предела оставшимися. Пока этот предел не перейден, система не нарушается... Для этого вида систем характерны свобода комбинирования, полезный отбор более устойчивых форм, взаимная компенсация, создающая сравнительно большую «непотопляемость» системы в целом»[19].
Наличие внешних жестких условий есть необходимое, но недостаточное условие для образования статистических систем. Для последних также характерно наличие неустойчивости в состояниях элементарных сущностей, наличие определенного характера – нелинейных – взаимодействий между ними. «...Для возникновения молекулярного хаоса, – отмечает Д.С.Чернавский, – необходимым и достаточным условием является глобальная неустойчивость. Большое число частиц не является ни необходимым, ни достаточным условием; это следует подчеркнуть, поскольку до недавнего времени (да и сейчас) в солидных книгах часто утверждается обратное»[20]. Добавим, что глобальная неустойчивость есть неустойчивость (состояний, траекторий движения) каждого из элементов статистических систем.
Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии, идея субординации. Эта идея является «сквозной» для системных исследований. Понятие «иерархического порядка», как отмечал один из лидеров системного движения XX века Л. фон Берталанфи, является «несомненно, фундаментальным для общей теории систем... Иерархия проявляется как в «структурах», так и в «функциях»[21]. Идея иерархии выражает наличие различных устойчивых уровней в строении и детерминации систем. Она проявляется уже в постановке основной задачи статистической физики, которая, говоря словами Г.Уленбека, «всегда заключается в отыскании соответствия между микроскопическим, или атомным, миром и миром макроскопическим»[22]. Кульминационным пунктом применения вероятностных концепций в естествознании является разработка квантовой механики – физической теории микропроцессов, процессов атомного масштаба. Для трактовки квантовой теории весьма существенно, что ее понятия делятся в своей основе на два класса: первый (исходный, первичный) класс составляют так называемые «непосредственно наблюдаемые» в опыте величины, рассматриваемые в теории как типично случайные; второй класс образуют квантовые числа (собственно квантовые понятия, типа спина). Различия между этими классами понятий заключаются прежде всего в «степени близости» к непосредственно данному в физическом опыте. Первые выражают более внешние характеристики микрообъектов, вторые – более глубокие, внутренние характеристики. Первые позволяют индивидуализировать квантовые процессы, вторые носят обобщенный характер. Первые во многом тяготеют по своему характеру к классическим понятиям, вторые прежде всего выражают специфичность квантовых явлений. Первые непрерывно и хаотически изменяются, вторые более устойчивы. Естественно, что полнота теоретического выражения квантовых процессов достигается при использовании понятий обоих классов, относящихся к различным логическим уровням. Весьма существенно, что установление взаимосвязи, синтеза в рамках единой теории этих двух классов величин с учетом их различной природы оказалось возможным на основе вероятностных представлений, и прежде всего – на основе волновых функций как особой формы характеризации вероятностных распределений.
Использование понятий различных классов в рамках единой теории представляет собою наиболее сильное изменение в логике построения научных теорий. Здесь один класс понятий как бы надстраивается над понятиями другого класса, зависимости между понятиями рассматриваются не только в плане координации, но и в плане субординации. Между понятиями, характеризующими глубинные свойства микрообъектов, зависимости носят вполне однозначный характер. На исходном, первичном уровне зависимости между параметрами элементов отсутствуют. Зависимости между понятиями, относящимися к различным уровням, таковы, что понятия «глубинного» уровня соотносятся не с конкретными значениями параметров отдельных элементов, а со структурой возможных изменений этих параметров. Аналогичным образом характеристика некоторого человека как честного и прямого не определяет собою строго его поведение в конкретных житейских ситуациях, а наличие определенной устойчивости в больших сериях его взаимодействий с другими людьми.
Весьма существенно, что признание иерархической структуры вероятностных систем подрывает один из важнейших постулатов концепции жесткой детерминации – представление о всевластии внешних причин. Независимость в поведении объектов и систем и есть независимость от внешнего по отношению к ним окружения. Поведение соответствующих объектов и систем приобретает внутренние степени свободы. Именно за это говорит ситуация в квантовой теории – поведение микрочастиц содержит внутреннюю неоднозначность и неопределенность, что невозможно выразить через внешне задаваемые скрытые параметры. Эту же особенность вероятностного стиля мышления косвенным образом подтверждает и тот факт, что весьма и весьма многие исследователи рассматривают случайность и вероятностные концепции как необходимую предпосылку анализа такой важнейшей характеристики бытия человека, как свобода[23]. Уже в период становления вероятности в физике ее часто сопрягали с проблемами свободы воли, что можно проследить по работам Дж.Максвелла – одного из основателей статистической физики[24]. Свобода рассматривается как высшая ценность человеческого бытия и она связана с особенностями функционирования внутреннего мира человека, выражает его динамику и активность и замыкается на проблеме принятия решений. Тем самым идея свободы продолжает ту направленность исследований, которая в «точном» естествознании порождена идеей вероятности.
Сказанное о проблеме иерархии в вероятностном образе мышления позволяет сделать вывод, что значение вероятностных методов в познании заключается прежде всего в том, что они позволяют исследовать и теоретически выражать закономерности объектов и систем, имеющих сложную, «двухуровневую» структуру. Вместе с тем сама по себе идея иерархии весьма стара и иерархия иерархии рознь. Заслуга теории вероятностей – в первом развитии математических основ «теории субординации» систем с наивысшим уровнем организации – с автономной организацией. Такую иерархию можно назвать мягкой или гибкой иерархией.
Становление базисных представлений новой парадигмы
Итак, и парадигма жесткой детерминации, и вероятностная парадигма представляют собою исторически последовательные системы взглядов, которые являются базисными в разработке и истолковании определенных классов научных теорий. Каждая из парадигм опирается на одну из фундаментальных теорий физики: парадигма жесткой детерминации – на классическую механику, вероятностная парадигма – на классическую статистическую физику. Каждой из них сопоставляется «свой» класс закономерностей и «своя» базовая модель бытия и познания. Тем самым обеспечивается успех, результативность каждой из парадигм. Такая характеристика парадигмы прямо соотносится с ее определением, данным Т.Куном, привлекшим в свое время пристальное внимание к рассматриваемой тематике: парадигма означает «признанные всеми научные достижения, которые в течение определенного времени дают модель постановки проблем и их решений научному сообществу»[25].
Как выше отмечалось, и парадигма жесткой детерминации и вероятностная парадигма уже выявили свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем. Все настойчивее высказываются утверждения о становлении новой парадигмы, соответствующей познанию таких систем. При этом, повторим, многие видят один из путей разработки нового концептуального видения мира в осуществлении своеобразного синтеза рассмотренных выше двух парадигм. Поскольку каждая из этих парадигм представляет собою систему взглядов по коренным вопросам бытия и познания, то интересно проследить, что же может дать «встреча» этих взглядов. Парадигма жесткой детерминации опирается на признание однозначного характера всех и всяких (в большом и малом) связей и зависимостей, качественной (логической) равноценности всех параметров и на признание внешнего характера причин любых изменений, происходящих с материальными объектами и системами. Соответственно этому парадигма жесткой детерминации предполагает, что все процессы в мире (как для будущего, так и для прошлого) могут быть абсолютно строго предсказаны, если задано их некоторое начальное состояние, и следовательно, в эволюционных процессах не может возникнуть ничего принципиально нового, что не могло бы быть заранее рассчитано. Можно сказать, что парадигма жесткой детерминации выражает собою сохраняющееся, неизменное начало мира.
Вероятностная парадигма базируется на идеях системности (понятие системы как первичное понятие), на идеях независимости, случайности, неустойчивости и (мягкой) иерархии. Вхождение вероятности в познание всегда означало проникновение науки во внутреннее строение исследуемых объектов (в структуру вещества, в структуру атома и атомных процессов, в молекулярную структуру явлений наследственности живого). Специфика этой парадигмы соотносится прежде всего с идеями независимости и случайности. Тем самым вероятностная парадигма выражает лабильное, подвижное, изменчивое начало мира, что открывает дорогу для возникновения истинно нового (не выводимого из предыдущего) в процессах развития. Абсолютизация этой парадигмы приводит к представлениям о хаотическом, акаузальном мире, где все, что возникает, возникает заново и необъяснимо, где предсказаниям нет места.
Соответственно сказанному синтез жесткой детерминации и вероятностной детерминации в методологическом плане означает «встречу», взаимопроникновение и преобразование тех идей, которые лежат в основе каждой из этих парадигм. В самом общем смысле это есть встреча, взаимопроникновение жесткого (сохраняющегося) и лабильного (неопределенно изменяющегося) начал мира. Такая встреча происходит в ходе современных исследований сложноорганизованных систем, их строения и эволюции. Она предполагает разработку некоторой единой системы понятий, выражающей и жесткое, и изменчивое начала бытия. Естественно допустить, что эта система понятий будет делиться на классы, имеющие различную логическую природу и относящиеся к различным уровням описания исследуемых объектов и систем. «Возникает» класс понятий, выражающий внутреннюю динамику этих объектов и систем. Сказанное позволяет сделать заключение, что синтез жесткой детерминации и вероятностной детерминации в методологическом плане основывается, по меньшей мере, на разработке идеи иерархии в структуре и функциях сложных систем и на раскрытии взаимопроникновения внешних и внутренних детерминант, определяющих функционирование и поведение таких систем, на раскрытии взаимодополнения внешнего принуждения и внутренней активности (самодетерминации) в описании сложных систем.
Разработка новой парадигмы науки, осуществление синтеза концепций жесткой детерминации и вероятностной детерминации не могут рассматриваться как некий разовый, единовременный акт. Становление основных идей этого синтеза просматривается в ходе тех концептуальных сдвигов и разработок, которые зафиксированы в развитии научного мышления с середины XX века. На этом пути прежде всего следует отметить зарождение и развитие системного движения (общей теории систем), кибернетики и концепции самоорганизации (синергетики).
В ходе становления системного движения обосновывался прежде всего сам статус системных представлений. Было признано коренное, базовое, первичное значение понятия системы в анализе действительности и, тем самым, понятий структуры, целостных свойств системы, подсистем и элементов. Отдельные объекты с самого начала стали рассматриваться как элементы некоторых систем, через призму базовых системных представлений. Соответственно познание отдельных объектов как элементов систем стало включать в себя вопросы, а в какие же системы могут входить те или иные объекты, какие системы могут образовывать эти объекты. Раскрытие и анализ таких системообразующих связей означает и познание более глубоких свойств самих элементов. Внешние воздействия на первичные объекты теперь стали рассматриваться как опосредованные структурой этих систем. Элемент в системе реагирует на воздействия по-иному, нежели когда он предоставлен сам себе. Системный подход вводит представления о внутренних связях и взаимодействиях и тем самым дает основания для разграничения внешних воздействий на системы и внутренних взаимодействий в самих системах. Весьма существенно также, что системный подход обусловил разработку представлений об иерархии как закономерных взаимосвязей целостных характеристик систем с характеристиками их элементов.
Становление кибернетики следует рассматривать как один из важнейших этапов развития системного подхода. В ходе ее зарождения основное внимание было обращено на вопросы поведения и функционирования сложных систем. Кибернетику определяют как науку об общей структуре процессов управления в сложных динамических системах. Сложными управляющими системами называются системы с относительно независимым, автономным поведением подсистем (элементов) при высокой внутренней активности и избирательности, целенаправленности функционирования и поведения систем в целом. Эти системы являются открытыми, находящимися в постоянном взаимодействии с окружением (средой) и принципиально способны решать весьма разнообразные классы задач (действовать при весьма различных обстоятельствах)[26]. Из такого определения кибернетики ясно видно, что она наследует основные идеи вероятностной парадигмы.
Представления об автономности опираются на идеи независимости и случайности, «гражданские права» которым в науке предоставили теоретико-вероятностные методы исследования. Независимость и случайность являются важнейшими характеристиками сложных систем, а «сложность подрывает устойчивость, если не умеряется иерархической структурой»[27]. Кибернетика привела к дальнейшей разработке представлений об иерархии и о взаимопроникновении внешних и внутренних детерминантов в «жизнедеятельность» систем. Идея иерархии стала соотноситься с представлениями об управлении и на путях «борьбы» со сложностью были выработаны представления об автономности. Особенностью системно-кибернетического образа мышления является то, что здесь на уровне аналитических методов стали вырабатываться понятия и представления, характеризующие поведение сложных систем с учетом их внутренней динамики и самодетерминации.
Внутренняя динамика систем стала выражаться посредством понятий цели, обратной связи, принятия решений, управления и эффективности последнего.
Современными наследниками системного движения выступают разработки по проблемам физико-математических основ процессов самоорганизации, по проблемам синергетики. Здесь уже ставятся вопросы не только о функционировании и поведении сложных систем, но и об их преобразованиях и даже об их образовании (роль хаоса в образовании структур). В синергетике находит продолжение линия на анализ проблем внутренней детерминации, проблем самодетерминации в функционировании и поведении сложных систем. Как иногда говорят – самоорганизующиеся системы суть такие системы, которые перестают быть игрушками в действиях внешних сил, т.е. специфика поведения этих систем связана с особенностями их внутренней организации и детерминации. Для исследований по проблемам самоорганизации и синергетики весьма характерна разработка представлений о нелинейности, ее содержании и значимости. Нелинейность вносит существенные изменения в наше понимание процессов эволюции, взаимодействия, образования структур. Для нелинейных систем возможен далеко не всякий путь их устойчивого развития, т.е. внешние воздействия не всевластны в определении их поведения. Соответственно этому обогащается наше понимание процессов управления. «Управление, – пишут Е.Н.Князева и С.П.Курдюмов, – теряет характер слепого вмешательства методом проб и ошибок или же упрямого насилования реальности, опасных действий против собственных тенденций систем, и строится на основе знания того, что вообще возможно на данной среде. Управление начинает основываться на соединении вмешательства человека с существом внутренних тенденций развивающихся систем»[28]. Добавим только, что в общем случае процессы управления не обязательно связаны с деятельностью человека – последняя по отношению к функционированию систем есть выражение действий внешних сил.
Для анализа процессов самоорганизации также весьма существенны представления о неустойчивости, неравновесности и хаоса. Уже отмечалось, что неустойчивость порождает случайность. Именно в состояниях неустойчивости систем проявляется независимость, многовариантность и альтернативность, порождающие образование структур, их самоусложнение и преобразования в эволюционных процессах.
Сказанное о концептуальных сдвигах в науке с середины XX века позволяет заключить, что эти концептуальные преобразования идут по линии утверждения и обогащения системных представлений, по линии разработки общего учения о сложных системах. При становлении системного движения оформлялся сам его статус в познании, вырабатывались понятия о системе, ее структуре, целостных характеристиках, подсистемах и элементах. В ходе разработки кибернетики внимание было обращено на понятия, выражающие исходные представления о функционировании и поведении сложных систем. Такими понятиями явились понятия цели, обратной связи, управления и его эффективности. Основные идеи общего учения о самоорганизации и синергетики уже соотносятся с процессами усложнения, преобразования систем. Исходными понятиями здесь являются понятия порядка и хаоса, неустойчивости, неравновесности, бифуркаций, целенаправленности, информации.
Общая теория систем, кибернетика и синергетика – этапы большого пути, ведущего к выработке нового концептуального видения мира. Изменения происходят громадные, но они еще не воспринимаются как имеющие некоторую законченную форму. Возможно, это связано с тем, что эти концептуальные преобразования не опираются на достаточно замкнутую физическую теорию фундаментального порядка. Можно повторить, что и концепция жесткой детерминации, и вероятностная детерминация базировались на фундаментальных теориях физики своего времени – на классической механике и на классической статистической физике. Концептуальные преобразования, связанные со становлением синергетики, также берут свое начало из физических исследований – ее породили статистическая физика открытых систем, далеких от равновесия, и квантовая физика – физика лазеров. Однако «замкнутого» ядра новой теории здесь еще не сложилось.
Язык происходящих концептуальных преобразований скорее опирается на анализ базовых понятий, лежащих в основе изучения живых систем. Можно предположить, что объекты современной науки, современного естествознания настолько сложны, что меняются сами представления о научной теории, ее структуре. Тем не менее вопрос о включенности физики в разработку новой парадигмы, ее основных идей не снимается с повестки дня. Вероятностная парадигма брала свое начало «сверху» – представления о случайности и независимости формировались в ходе анализа явлений из жизни общества, но как парадигма она проявила свою силу после того, как стала опираться на модели, вырабатываемые в фундаментальных теориях физики. Что же можно сказать о включенности базовых идей физики в современную разработку нового концептуального видения мира?
Исторически точки роста в фундаментальных физических исследованиях были связаны с проникновением физики на самые глубинные уровни строения материи – на уровни атомов, элементарных частиц, полей. Соответственно этому для выработки новой «глобальной» парадигмы естественнонаучного мышления первостепенного внимания заслуживают идеи и методы, характеризующие исследования предельных структур материи, при этом существенно, что базовые объекты физических процессов с самого начала рассматриваются как нечто сложное, т.е. системным образом.
Одно из направлений, где происходит разработка новых физических идей фундаментального порядка, есть исследования по общей теории нелинейных динамических систем. Здесь достаточно широко используется язык учения о самоорганизации, язык синергетики. Такой подход позволяет взглянуть с новой точки зрения на многие уже познанные процессы, расширить их понимание. Но этот язык ведет и к новым постановкам вопросов. Существенна здесь разработка стохастической динамики. Также весьма значимо, что в системах, как сказал Б.Б.Кадомцев, «со сложно организованной внутренней структурой возможно расслоение единой системы на две тесно связанные друг с другом подсистемы. Одну из них мы по-прежнему можем называть динамической или силовой, а вторую можно назвать информационной или управляющей подсистемой». И далее: «Те структурные элементы, которые могут сильно влиять на динамику системы сравнительно малыми возмущениями (сигналами), естественно выделяются в структуру управления»[29]. На путях развития этих идей расширяется взаимодействие физики и биологии, что чревато изменениями в базисных теоретических построениях физики. Исследования фундаментальных структур все сильнее обогащаются понятиями и представлениями, «заимствованными» из кибернетики и синергетики. К таковым относятся понятия и представления о цели, уровнях организации и детерминации, управлении, принятии решений, эффективности, информации и др. Интересно в связи с этим еще одно высказывание Б.Б.Кадомцева: «Гораздо более естественным является допущение о том, что свобода воли является имманентным, т.е. внутренне присущим свойством всего мира. Только на основе этого исходного положения можно уйти от бессмысленного, полностью детерминированного механистического мира к миру живому и развивающемуся»[30]. Поиск аналога свободы воли в первичных структурах материи означает признание того, что составляющие этого мира подвержены активной внутренней динамике, проявление которой не определяется внешними условиями и воздействиями. Как резюмирующее приведем и такое высказывание Б.Б.Кадомцева: «Идеи о самоорганизации и образовании диссипативных структур в открытых системах оказались очень важными для того, чтобы перебросить мостик между физикой и биологией. Но видно, что следует идти дальше и изучать иерархизацию структур, образование структур с памятью и возможностями извлечения информации извне, накопление ее в памяти, использования информации для управления и обработки этой информации с целью оптимального управления. Нетрудно видеть, что существует много общих черт в поведении сложных систем, как органических, так и неорганических, причем неорганические системы со сложной структурой тоже не являются простыми как в структурном плане, так и по характеру их поведения»[31].
Переход к новому языку в физике, сопряженному с идеями синергетики, обусловлен все более интенсивными исследованиями феномена нелинейности и ее проявлением на первичных (исходных) уровнях строения материи. Нелинейность выражает собою новый тип взаимодействий, который «обеспечивает» преобразование структур, их самоусложнение. Вместе с тем «синергетическое направление» в фундаментальных физических исследованиях не является единственным. К числу таких важнейших направлений относится и применение идей и методов топологии к анализу физических структур[32]. Однако в методологическом плане анализу этого направления повезло значительно меньше, хотя оно также укладывается в рамки особого класса системных исследований.
Происходящие под воздействием синергетики концептуальные сдвиги в мышлении носят, несомненно, парадигмальный характер. Однако о становлении новой парадигмы, равносильной рассмотренным выше парадигмам жесткой детерминации и вероятностной детерминации, говорить еще не приходится. Здесь нет еще базовой и относительно замкнутой научной теории, характеризующейся «своей» системой уравнений и порождающей новый класс закономерностей. Можно, конечно, сказать, что в физике возник новый класс закономерностей – законы симметрии. Говорят также о законах управления (по отношению к сложным системам) и законах самоорганизации. Тем не менее в рамках таких закономерностей не выработана самосогласованная система уравнений, которая выражала бы собой достаточно замкнутым образом динамику процессов более глубоких, чем это отражено в квантовой теории.
Заключение. Иерархия парадигм
Выше проблема парадигмы рассматривалась в глобальном плане, наиболее укрупненном историческом плане развития познания. Но реально представления о парадигмах используются на различных уровнях познания и в разнообразных аспектах. Так уже в упоминавшейся книге Т.Куна говорится о парадигмах практически в каждой области естествознания – о парадигмах в развитии астрономии, механике, оптике, учения об электрических явлениях, в химии, генетике, геологии и в других науках. Несколько осторожнее даются высказывания по отношению к познанию социальных процессов. «В таких разделах биологии, как, например, учение о наследственности, – пишет Т.Кун, – первые парадигмы появились в самое последнее время; и остается полностью открытым вопрос, имеются ли такие парадигмы в каких-либо разделах социологии»[33]. Представления о парадигмах здесь соотносятся с некоторыми достижениями фундаментального порядка, которые позволяют лучше понять соответствующие материальные процессы, расширяют область проводимых исследований, в том числе – и в прикладных науках. Можно добавить, что и в рамках выше рассмотренных «исторических» парадигм естественнонаучного мышления четко выделяются свои «подпарадигмы». На базе вероятностной парадигмы «весомо» проявляется квантовая парадигма, когда теоретические построения в ряде областей физики, химии и биологии опираются на «образцы», порожденные квантовой теорией. В рамках парадигмы жесткой детерминации выделяется полевая парадигма, когда анализируются проблемы, выражающие непрерывный аспект строения материи и в качестве базового выступает образ волны. В наше время говорят также об экологической парадигме, информационной, парадигме глобального эволюционизма и др. Во всех подобных случаях представления о парадигмах соотносятся с некоторыми достижениями фундаментального порядка (уравнениями, идеями), которые позволяют лучше понять соответствующие материальные процессы, расширяют область своих приложений, обеспечивают устойчивое развитие данных областей знаний в некоторый период времени.
Коль скоро признается разнообразие парадигм, то встает вопрос об их упорядочивании, их классификации. Парадигма парадигме рознь – они различаются по широте и основательности своего действия. Есть парадигмы, характеризующие развитие естественнонаучного мышления в целом, и есть парадигмы, относящиеся к анализу весьма узких направлений исследования. Есть парадигмы, характеризующие разработку фундаментальных наук, и есть парадигмы, свойственные прикладным наукам. Методологию науки интересует в первую очередь вопрос о парадигмах, относящихся к развитию естественнонаучного мышления в целом. Именно такими явились парадигмы жесткой детерминации и вероятностной детерминации. Такие парадигмы вырастают из фундаментальных исследований и опираются на аналитически разработанные методы исследований. Весьма существенно, что их становление происходило на путях проникновения в глубинные уровни строения материи – парадигма жесткой детерминации разрабатывалась в процессе принятия наукой классического физического атомизма, а вероятностная парадигма – в процессе проникновения науки в структуру вещества (а затем – и в структуру атома). Исходя из этого естественно предположить, что разработка новой глобальной парадигмы как синтеза концепций жесткой и вероятностной детерминаций будет происходить в ходе дальнейшего проникновения познания в глубины строения материи и выработки образа базовых объектов бытия. Поэтому интересно проследить историческое развитие представлений об элементарных сущностях. Механика начала свое развитие с разработки представлений об атоме как простейшей, далее неразложимой структурной единице материи, первичным образом которой выступала материальная точка. Далее мир стал рассматриваться построенным из атомов и полей как исходных физических реальностей. Представления об атомах все более характеризовались образом мельчайших, твердых, упругих шариков, а представления о полях стали соотноситься с образом волны в непрерывных средах.
Дальнейшее проникновение физики в микромир обязано разработке квантовой теории, которая, по словам В.Вайскопфа, представляет такой «плод человеческой мысли, который более всякого другого научного достижения углубил и расширил наше понимание мира»[34]. Квантовая теория вскрыла сложную внутреннюю структуру атома, а мир стал рассматриваться как построенный из элементарных частиц. В процессе развития квантовой теории поля разрабатывались представления о фундаментальных физических взаимодействиях и была выдвинута идея о физическом вакууме как первичной реальности, порождающей сами элементарные частицы. Современная микрофизика рассматривает мир как построенный из кварков, глюонов, лептонов, а «микрофизика, – говоря словами В.Л.Гинзбурга, – вчера, сегодня и, нужно думать, завтра была, есть и будет передним краем физики и всего естествознания»[35].
Сказанное позволяет сделать вывод, что разработка современной глобальной естественнонаучной парадигмы лежит на путях дальнейшего проникновения физики в глубинные структуры материи. Новые структурные единицы материи весьма сложны и для своего выражения нуждаются в наработке весьма развитых теоретических представлений и образов. Именно этому отвечают все настойчивее высказываемые ныне утверждения, что мир состоит из нелинейных динамических систем. Идеи о синтезе жесткой и вероятностной парадигм обогащают разработку этого направления мысли. И как это было в прошлом, разработка новой парадигмы приведет, надо полагать, к новому взлету научной мысли.
Примечания
[1] Цит. по: Вавилов С.И. Собр. соч. М., 1956. Т. 3. С. 461, 715.
[2] Поппер К. Мир предрасположенностей. Две новые точки зрения на причинность // Философия и человек. Ч. II. М., 1993. С. 143.
[3] Винер Н. Кибернетика и общество. М., 1958. С. 26.
[4] Цит. по: Борн М. Физика в жизни моего поколения. М., 1963. С. 266.
[5] См., напр.: Мякишев Г.Я. Динамические и статистические закономерности в физике. М., 1973.
[6] Гапонов-Грехов А.В., Рабинович М.И. Нелинейная физика. Стохастичность и структуры // Физика XX века. Развитие и перспективы. М., 1981. С. 228.
[7] Пригожин И., Стенгерс И. Время, хаос, квант. М., 1994. С. 261.
[8] Там же. С. 262.
[9] Поппер К. Логика и рост научного знания. М., 1983. С. 497–498.
[10] Там же. С. 498.
[11] Там же. С. 504.
[12] Омельяновский М.Э. Победа Октября и революция в естествознании // Ленинское философское наследие и современная физика. М., 1981. С. 49.
[13] См.: Гельфанд И.М., Цетлин М.Л. О некоторых способах управления сложными системами // УМН. 1962. Т. 17, вып. 1.
[14] См.: Амосов Н.М. Регуляция жизненных функций и кибернетика. Киев, 1964. С. 19 и сл.
[15] Гнеденко Б.В. Вопросы математизации современного естествознания // Материалистическая диалектика и методы естественных наук. М., 1968. С. 201–204.
[16] Suppes P. The Structure of Theories and the Analysis of Data // The Structure of Scientific Theories. Urbana, 1974. P. 295.
[17] Probability in the Sciences. Ed. by E.Agazzi. Dordrecht, 1988. P. VII.
[18] Налимов В.В. Спонтанность сознания. М., 1989. С. 207.
[19] Малиновский А.А. Значение общей теории систем в биологических науках // Системные исследования. Ежегодник. 1984. С. 86–87.
[20] Чернавский Д.С. Синергетика и информация. М., 1990. С. 19.
[21] Берталанфи Л.фон. Общая теория систем – обзор проблем и результатов // Системные исследования. Ежегодник. М., 1969. С. 49.
[22] Уленбек Г. Фундаментальные проблемы статистической механики // УФН. 1971. Т. 103, вып. 2. С. 275.
[23] См., напр.: Абрамов М.А. Неопределенность свободы // Вопросы философии. 1996. № 10.
[24] См., напр.:Kruger L. The Slow Rise of Probabilism: Philosophical Arguments in Nineteenth Century // The Probabilistic Revolution. Vol. 1. Ideas in History. The MIT Press, 1987. P. 78 etc.
[25] Кун Т. Структура научных революций. М., 1975. С. 11.
[26] Характеристика структуры сложных управляющих систем приводится, например, в статье И.М.Гельфанда и М.Л.Цетлина «О математическом моделировании механизмов центральной нервной системы» // Модели структурно-функциональной организации некоторых биологических систем. М., 1966. С. 14.
[27] Николис Дж. Динамика иерархических систем. Эволюционные представления. М., 1989. С. 98.
[28] Князева Е.Н., Курдюмов С.П. Законы эволюции и самоорганизации сложных систем. М., 1994. С. 36.
[29] Кадомцев Б.Б. Динамика и информация // УФН. Т. 164. № 5. С. 525.
[30] Там же. С. 522.
[31] Там же. С. 530.
[32] См., напр.: Акчурин И.А. Новые теоретико-категорные и топологические методы в основаниях физики // Методы научного познания и физика. М., 1985. С. 250 и сл.
[33] Кун Т. Структура научных революций. М., 1975. С. 33.
[34] Вайскопф В. Физика в двадцатом столетии. М., 1977. С. 34.
[35] Гинзбург В.Л. О перспективах развития физики и астрономии в конце XX в. // Физика XX века. Развитие и перспективы. М., 1984. С. 299.