پنجشنبه , آذر 22 1403

مفهوم هم‌افزایی

مفهوم هم‌افزایی

در سال ۱۹۷۱.م، یك فیزیكدان /زیست شناس آلمانی به نام هرمان هاكن، نامی را برای دسته ای از پدیده های سیستمی پیشنهاد كرد، كه بعدها به عنوان یك شاخه از نظریه عمومی سیستم ها مورد استفاده قرار گرفت
(Haken & Graham ,1971). نام پیشنهادی هاكن، Synergism بود. این واژه از دو بخش تشكیل شده است ؛syn ( یونانی) که “با هم” معنا میدهد، و erg ( یونانی ) که یعنی با هم کار کردن.

این واژه، بعدها توسط طیف وسیعی از فیزیكدانان، زیست شناسان، هواشناسان، ریاضی دانان، و متخصصین رایانه به كار گرفته شد، تا مجموعه ای متنوع از علایق مربوط به سیستم های پیچیده را برچسب گذاری كند. سرعت رواج یافتن این واژه و مفاهیم مشتق از آن به قدری بالا بود، كه یك سال بعد، -یعنی در سال ۱۹۷۲.م – نخستین گردهم آیی جهانی هم افزایی، در آلمان برگزار شد.

این واژه، به زودی با برخی از اصطلاحات قدیمی تر پیشنهاد شده برای نامگذاری پدیده هایی مشابه در هم آمیخت، و یك نظام دقیق علمی از واژگان و مفاهیم آزمایش پذیر را تشكیل داد. از جمله واژگان دیگری كه پیش از نام هم افزایی پیشنهاد شده بودند و جذب پیكره ی آن شدند، می توان مفهوم خودآفرینی[1] را ذكر كرد. این مفهوم برای بار نخست توسط دانشمندان زیست شناس و شیمیدان شیلیایی پیشنهاد شد و مفهومی نزدیك به “نیروی زنده ” ی مطرح در vitalism را می رساند. كلیدواژه های دیگری كه در این میان وارد نظریه هم افزایی شده اند، آشوب، برخال، نظریه هرج و مرج، و خود سازمان دهی است .

این آش شله قلمكار كه ملغمه ای از تازه ترین دست یافته ها و مفاهیم علمی بود، به زودی به عنوان یكی از نیرومندترین رویكردهای كل گرا مطرح شد. رویكردی كه به زودی توانست نظامی سازگار از تجربیات و شواهد را، به همراه روش شناسی ابطال پذیر و دقیقی به جهان دانش ارائه كند. هانری لِبِسگ، كه در مورد روش شناسی علمی خیلی حساس بود، معتقدبود كه وضع واژه ی جدید فقط وقتی مفید است كه مفهومش وجود داشته باشد، اما هنوز در قالب یك واژه دسته بندی نشده باشد. به بیان

دیگر، یك پژوهشگر تنها وقتی مجاز به وضع واژگان جدید است، كه از انجام این كار ناچار باشد. مفهوم هم افزایی،در طول دوران كوتاه عمر خود نشان داده است كه بر اساس یك نیاز ایجاد شده است . چرا كه در مدتی به این كوتاهی، اینهمه مفاهیم نو و پدیده های عام در ارتباط با آن شناخته شدند و به این سرعت چهارچوبی معنایی را برای طراحی آزمونهای جدید پیشنهاد كرد.

هم افزایی، در بسیاری از موارد مدعی جانشینی دیدگاه سنتی تحویل گرا است . با این وجود اهمیت و كاربرد این روش قدیمی تر را در بهره برداری فنی و تحلیل سیستم های ساده نفی نمی كند.

اگر بخواهیم بین این دو نگرش داوری كنیم، باید به خصوصیات ابتدایی هریك توجه كنیم . ویژگی های دیدگاه تحویل گرا را می توان به این ترتیب خلاصه كرد: اعتقاد به ساده تر شدن پدیده ها در سطوح خُرد، چشمداشت بازیابی پدیده های سطوح كلان در سطوح خرد، و جبرانگاری .

دیدگاه كل انگار موسوم به هم افزایی هر سه فرض یاد شده رامردود می داند، و به این ترتیب به نوعی سلسله مراتب در سطوح مشاهده قایل است . سلسله مراتبی كه طبیعی و ذاتی است و پدیده های موجود در هریك را نمی توان با روندهای سطوح دیگر هم ارز گرفت، هرچند می توان آنها را به كمك یكدیگر توضیح داد. بنابر دیدگاه پریگوژین -از بنیانگذاران این نوع نگرش،- سه سطح از توصیف پدیده ها در فیزیك قابل فرض است :

نخست ) سطح نیوتونی : كه صفات كلیدی مطرح در آن عبارتند از جرم و سرعت، كه به یك تك ذره منسوبند و این تك ذره هم به نوبه ی خود عنصر پایه ی توضیح پدیده ها در این سطح است . این دیدگاه تنها به پدیده های ساده ی موجود در سطح خرد توجه دارد و تنها اندركنشهای دو به دوی ذرات را در نظر می گیرد. در این سطح اندركنش جمعی از ذرات، برابر است با حاصل جمع اثرات دو به دوی آنها بر هم . این سطح با پدیده های مشتق از اعمال خارجی نیروی اجسام بر هم سر و كار دارد و همه ی روندها در آن برگشت پذیرند. یعنی روابط فیزیكی قابل صورتبندی در آن نسبت به محور زمان متقارنند.

دوم ) سطح ترمودینامیكی : كه مفاهیم مهم تعریف شده در آن عبارتند از فشار و دما. این سطح به بررسی پدیده ها در سطح كلان می پردازد و روابط بین مواد را آماری و كلی در نظر می گیرد. در این سطح روابط دو به دوی اجسام مطرح نیستند و تنها رفتارهای جمعی اهمیت دارند. زمان در این سطح متقارن نیست و سیستم ها تفاوتهایی برگشت ناپذیر را با گذر زمان تجربه می كنند.

سوم ) سطح سیستم های باز: كه مفاهیمی مانند خودسازماندهی و دوشاخه زایی و همه ی آنچه كه تا اینجا تعریف كردیم در آن معنا می یابد. در این سطح سیستم های باز انتشاری اهمیت دارند و روندهای كل گرایانه ی قابل مشاهده در آنها به سطوح زیرین توصیف پیوند می خورد. تمام سیستم های مطرح در این سطح در حالتی غیرمتعادل به سر می برند و در طول زمان پویایی پیچیده ای از خود نشان می دهند.

چنان كه گفتیم، پریگوژین این سه سطح را به عنوان توصیفاتی غیرقابل تحویل به هم در نظر گرفته است . او برای توجیه علت این تحویل ناپذیری، دلایل جالبی پیشنهاد می كند. به نظر او، شكست تقارن علت اصلی تحویل ناپذیر بودن پدیده ها در این سطوح متوالیست . در گذر از سطح نیوتونی به ترمودینامیكی، تقارن در زمان می شكند و ناوردایی معادلات بیانگر رفتار سیستم ها نسبت به زمان از بین می رود. به همین ترتیب در گذار از سطح ترمودینامیكی به سطح سیستم های باز، تقارن در فضا می شكند و معادلات برای بخشهای گوناگون درون و برون سیستم تفاوت می كنند. گذار اول، كه زمان را به عنوان یك كمیت بنیادی وارد كار می كند، همان است كه در تاریخ علم به مفهوم علیت ساده و خطی شكل داده است، و گذار دوم، همان است كه نظریه ی سیستم های پیچیده را بنا نهاده و ما را ناگزیر كرده تا در مفهوم علیت و تقارن تجدید نظر كنیم .

امروز در قلمرو دانش هم افزایی، سه مكتب اصلی وجود دارد:

مكتب بلژیكی : این مكتب كه توسط یك فیزیكدان روس به نام پریگوژین بنیان نهاده شده، تمركز خود را بر روی پویایی سیستم های باز قرار داده، و چگونگی پدید آمدن ساختارهای ناهمگن، از شرایط اولیه ی همگن را در این سیستم ها مورد بررسی قرار می دهد. بخش مهمی از دستاوردهای كلیدی دانش هم افزایی از این مكتب برخاسته است .

مكتب آلمانی : كه مكتب حركتی (kinetic) هم نامیده می شود و بنیان گذار آن همان هاكن نامدار است، بیشتر به چگونگی همكاری بخشهای مختلف یك سیستم پیچیده، و چگونگی شكل گیری رفتارهای غیرقابل تحویل در آنها می پردازد. بخش مهمی از تمركز علاقمندان به این مكتب بر دستگاه عصبی و نمودهای رفتاری آن اختصاص یافته است .

مكتب روسی : كه مكتب پویا (dynamic) هم خوانده می شود، بیشتر ریاضیدانان را در بر می گیرد، و به كسانی مربوط است كه بر تحلیلهای ریاضی غیرخطی و آشوبناك تاِكید می كنند و به ویژه به پدیده های فیزیكی موسوم به نوسانات غیرخطی توجه نشان می دهند. این نوسانات می توانند طیف وسیعی از رفتارهای به ظاهر ساده ی سیستم های پیچیده را در برگیرند.

در پدیده های هم افزا، چند كلیدواژه ی مهم داریم كه باید پیش از پرداختن به بحثهای تخصصی تر، با آنها آشنا شویم . پیش از پرداختن به این واژگان، باید یادآوری كنم كه همه ی مفاهیم مورد نظر، در قالب نمودارهای نمایانگر پویایی سیستم مورد نظر قابل دركند. یعنی هر سیستمی بر حسب تعداد ابعاد فضای فازش، و ساختارش، نوع خاصی از رفتار را در طول زمان از خود نشان خواهد داد كه آن رفتار را می توان به صورت نموداری بر فضای فاز آن نمایش داد. هرآنچه كه ما در مورد معادلات و صورتبندی ریاضی

پویایی سیستم مگوییم، در نهایت به ریخت این نمودار برمی گردد. چند شكل اصلی از پویایی در سیستم ها قابل تشخیصند. نخست پویایی خطی، كه با یك معادله ی ساده ی ریاضی قابل بیان است و مفاهیم فیزیك و شیمی سنتی را در برمی گیرد. خط راست نمایانگر انبساط حجمی بر حسب دما در بازه ی گرمایی خاص، منحنی نمایی نمایانگر حركت یك پرتابه، و منحنی سیگموئید رشد باكتریها در محیط كشت، همه و همه از این دسته پویایی های خطی محسوب می شوند.

پویایی های دیگری هم هستند، كه با توجه به ریخت بسترهای جذبشان دسته بندی می شوند. بستر جذب عبارت است از مجموعه نقاطی بر فضای فاز، كه همه ی نمودارهای بیانگر حالت سیستم، به سوی آنها گرایش دارند. این مجموعه نقاط می تواند ساده یا غریب باشد. بستر جذب ساده می تواند یك نقطه باشد (در سیستم های خطی )، از چرخه های محدودی تشكیل شده باشد، و یا اینكه به شكل چنبره باشد. در حالت چرخه های محدود، نمودار پویایی سیستم چرخه هایی هم مركز را در فضای فاز نشان می دهند كه عبور سیستم از هریك و ورود به دیگری همراه است با یك تغییر فاز. حالت چنبره، شكلی پیچیده تر را نمایش می دهد، اما در كلیت شبیه مورد اخیر است . بستر جذب غریب، نوعی ویژه از بستر جذب است كه دارای شكل برخالی است . یعنی خطی كه مركز ثقل نمودارهای معرف رفتار سیستم را نشان می دهد، در این موارد دارای شكلی شكسته و دیفرانسیل ناپذیر است . در این موارد، نمونه ی دیگری از پویایی آشكار می شود كه به نام پویایی آشوبناك مشهور است .

در ادامه ی بحث، اشاره ای كوتاه به برخی از مفاهیم مهم معرفی شده در دانش هم افزایی خواهم كرد. باید این حیقیقت را گوشزد كرد كه اطلاعات موجود در مورد هریك از این واژگان فضایی برابر با چند صد جلد كتاب را پر می كند و آنچه در اینجا می آید چیزی جز یك اشاره ی گذرا نیست .

۱-۳-۱) تقارن

نخستین كلیدواژه ی قابل توجه در این زمینه، مفهوم تقارن است . تقارن، در فارسی از ریشه ی عربی قَرُن مشتق شده، كه مفهوم یكسان نمودن و به دقت شبیه بودن را می دهد. همتای اروپایی این واژه Symmetry است كه از sym ( یونانی) به معنای “هم” و ” یکسان” و metry ( یونانی ) به معنای “اندازه گیری” و ” سنجش” مشتق شده است.

من در نوشتار دیگری به طور مفصل تر به مفهوم تقارن و نمودهای آن در زیست شناسی پرداخته ام و دیگر در اینجا تكرار مكررات نمی كنم، فقط سرنخی به دست می دهم تا در پرتو آن بتوان باقی مبحث را درك كرد.

تقارن عبارت است از ناوُردایی نسبت به تبدیلی خاص .

به بیان دیگر، اگر ما بر یك سیستم، تبدیلی ویژه -یعنی تغییراتی قانونمند- را تحمیل كنیم، و خاصیتی از آن سیستم، نسبت به محوری قراردادی تفاوت مشخصی نشان ندهد، آنگاه می گوییم آن خاصیت سیستم نسبت به آن محور و آن تبدیل، متقارن بوده است .

مثال : اگر یك دایره را نسبت به محوری كه عمود بر سطح آن، از مركزش می گذرد، به اندازه ی a درجه دوران بدهیم، می بینیم كه شكل هندسی آن هیچ تفاوت محسوسی از خود نشان نداده است، به این ترتیب می توانیم بگوییم شكل دایره در برابر دوران به مقدار دلخواه، نسبت به محور مركزش، متقارن است . این در واقع همان تعریفی است كه به طور مختصر در ریاضیات و هندسه با آن سر و كار داریم و زیست شناسان هم در قالب ریخت شناسی با عنوان تقارن مركزی به آن برمی خورند.

در ریاضیات تعبیرات و تعاریف فراوانی از مفهوم تقارن وجود دارد و به همین ترتیب در فیزیك هم ردپاهای این مفهوم را می توان به خوبی بازیافت . در واقع، می توان تمام قوانین فیزیكی را بر اساس نوع و درجه ی تقارنی كه بیان می كنند، دسته بندی كرد. این همان كاری است كه گفتیم پریگوژین انجام داده است . موازی با مفهوم انتزاعی و معادلاتی تقارن، این مفهوم را می توان در اجسام فیزیكی و سیستم های مادی هم بازیافت . هرچه تقارن موجود در یك سیستم بیشتر باشد، پیچیدگی آن كمتر است، و مقدار اطلاعات درون ساختار یك سیستم، كه همان پیچیدگی آن باشد، توسط شكست تقارن تولید می شود. در عمل سیستم هایی كه اطلاعات (بخوانید پیچیدگی ) بیشتری دارند، بیشتر از حالت متقارن پایه فاصله دارند و پیش بینی شان به همین دلیل دشوارتر است . ساده ترین سیستم ها، سیستم های گازهای ساده هستند كه رفتاری آماری و قابل پیش بینی دارند. همانطور كه از قانون دوم ترمودینامیك به یاد داریم، این سیستم ها در طول زمان به سوی حداكثر بی نظمی، یا كمترین مقدار اطلاعات ممكن، یا تعادل ترمودینامیكی پیش می روند. این نقطه ی تعادل ترمودینامیك همان است كه بیشترین مقدار تقارن را در خود دارد. به بیان دیگر، برای هر سیستمی محتمل ترین حالت، وضع تعادل ترمودینامیك با محیط است، كه در ضمن كمترین پیچیدگی و بیشترین مقدار همگنی (یا تقارن ) را در خود دارد ( Nicolis ,1986).

اولین كسی كه مفهوم تقارن را به معنای دقیق آن در فیزیك وارد كرد، پیر كوری بود كه آن را برای توصیف برخی از پدیده های مربوط به دانش بلورشناسی به كار گرفت . پس از او هم شیمیدان نام آوری به نام پاستور، از همین مفهوم برای توصیف برخی از پدیده های شیمیایی استفاده كرد.

پیر كوری، توانست با توجه به رویدادهای مورد مشاهده اش، مفاهیم مكملی را هم تعریف كند، كه در بحث ما كاربرد خواهد یافت . او مفهومی را به نام عدم تقارن تعریف كرد، كه عبارت بود از انحراف قابل تعریف از حالت پایه ی متقارن . او همچنین از این واژه مفهوم دیگری را استخراج كرد، كه پاستور هم به آن اشاره كرده بود، و آن هم بی تقارنی بود. این مفهوم به زعم پاستور، عبارت بود از كل عناصرتقارنی مشخصی كه در اشیای هم ارز با یك شیء هستند، اما در خود آن شیء نیستند. كوری این اصطلاح را گرفت و آن را طوری تعریف كرد كه معنایی هم ارز با تقارن پویا را به ذهن متبادر كند. این تقارن پویا، -یا بی تقارنی – عبارت بود از وجود تقارن در یك بخش از سیستم، به شكلی كه قرارداد آن با قرارداد باقی بخشهای سیستم تفاوت داشته باشد. به عبارت دیگر، تقارن ویژه ی ایجاد شده در اثر تغییرات منظم تبدیلها یا محورهای قراردادی سازنده ی تقارن كلی در یك سیستم، با عنوان بی تقارنی تعریف شد. به این ترتیب، هر سیستمی در برابر تقارنی كه دارد، مقداری هم بی تقارنی دارد، و این

بی تقارنی همان است كه مكمل مفهوم تقارن در سیستم است .

بنابراین تعریف، قانونی وضع شد كه با عنوان قانون كوری مشهور شد:

قانون كوری : اگر مجموعه ای از اشیای با طبیعت متفاوت در یك سیستم گرد هم جمع شوند، مقدار تقارن باقیمانده قابل مشاهده در سیستم، برابر خواهد بود با اشتراك تقارن های اولیه ی موجود در تك تك اجزا، و بی تقارنی موجود در سیستم برابر خواهد بود با اجتماع بی تقارنی های تك تك اجزا ( Jaque Curie ,1880 & Pierre). كوری توانست با توجه به این قانون پدیده هایی مانند اثر پیزوالكتریك را پیش گویی كند، و به این ترتیب بر اعتبار قانونش بیفزاید.

بر اساس این قانون، چنین تحلیلی از اثر مذكور به دست می آید: بلور مورد نظر در حالت عادی اتمهایی دارد كه الكترونهای هریك در شعاعی برابر با R در اطراف هسته اش سرگردانند. این شعاع با توجه به گرما و فشار مكانیكی و سایر شرایط فیزیكی محیط تغییر می كند. در حالت پایه، بردارهای تقارنی حاكم بر مجموع این اتمها برابر است با اشتراك بردارهای تقارنی تك تكشان . این مقدار در شرایط عادی آنقدر اندك و ناچیز است كه هیچ نوع همگرایی خاصی را در بین مسیرهای حركت الكترونها باعث نمی شود. یعنی در این حالت پارامتر نظم موجود در سیستم چیزی هم ارز صفر است . اگر دما –یا فشار مكانیكی – از حد خاصی بیشتر شود، شعاع الكترونهای ساده شده آنقدر گسترش می یابند كه بر هم اثر كنند، و در این حالت ناگهان تغییر فازی در بلور مشاهده می شود و پارامتر نظم، در پی تغییر كردن ریخت بردارهای تقارنی سیستم، به عددی غیرصفر تغییر می كند. و این همان است كه جریان الكتریكی رادر درون سیستم بلوری پدید می آورد. بد نیست بدانید كه این نگرش قدیمی به این اثر فیزیكی، به دلیل به حساب آوردن مفاهیم تقارنی، هنوز هم مورد توجه فیزیكدانان است، و مثلاً تعبیر ترمودینامیكی لاندائو از این قضیه هم به آنچه كه گذشت بسیار نزدیك است .

در كنار مفهوم تقارن، مفهوم دیگر هم تعریف می شود، كه عبارت است از شكست تقارن . شكست تقارن، عبارت است از انحرافات قابل سنجش، از حالت پایه ی متقارن، در یك سیستم . هرنوع ناوردایی در صورتبندی پویایی درونی سیستم، نوعی تقارن محسوب می شود، و بنابراین نقض هریك از این معادلات تقارنی نوعی شكست تقارن است . شكست تقارن به چندین شكل و بر اساس چندین الگو میتواند صورت گیرد، كه هریك را به نام و تعریفی خاص از دیگری متمایز می كنند. من در اینجا زیاد به این تعاریف نمی پردازم و علاقمندان را به فهرست مراجع حواله می كنم .

در مورد مفهوم تقارن در سیستم های زنده (به ویژه از دید ریخت شناسی ) بسیار نوشته شده است . من در اینجا قصد ندارم به طور مفصل به این مبحث بپردازم، چون در جای دیگری در این مورد نوشته ام. پس فقط به ذكر این نكته اشاره می كنم كه تقارن، مفهومی بسیار بنیادی و پایه ای در پویایی رفتاری و ریختی سیستم های زنده است و آن را در تمام سطوح سلسله مراتبی موجودات زنده می توان بازیافت . تنها به عنوان یك مثال، به یافته های جدید ژنتیك اشاره می كنم كه از وجود ژنهای خاص موثر در تقارن شعاعی گل ها در گیاهان گلدار خبر می دهند. گیاهان گلدار، دو نوع ریخت تقارنی دارند. یا حالتActinomorphدارند، یا حالت Zygomorph . حالت نخست در دولپه ای ها دیده می شود و همان نوعی است كه تعداد عناصر گل در آن از مضارب پنج تشكیل شده اند. نوع دوم حالتی ثانویه است كه چندین بار درنهاندانگان تكامل یافته، و با شكست تقارنی در نوع actinomorph همراه است . ژن cyc كه این شكست تقارن را پدید می آورد، برای اولین بار در گل میمون Antirrhinum majus كشف شد و بعد به تدریج در سایر تیره های گیاهان، (مانند Labiatae, Scrophulariacea, Leguminacea,Orchidacea ) هم ردیابی شد. ژنهای دیگری هم از این خانواده كشف شده اند كه كاركردی مشابه دارند. dieh, divaricata و rad نمونه های مشهور این ژنهای تقارنی هستند. این شواهد، نشان می دهند كه تقارن ریختی دست كم در برخی ازموجودات نه تنها به عنوان یك پدیده ی هم افزای منتج از كل سیستم، بلكه به صورت اطلاعات مجزا و مستقل وراثتی هم در درون ساختار زنده كدگذاری می شود (Cronk ,1997). البته همه ی آنچه كه ما دراین زمینه گفتیم تازه ابتدای كار است و هر روزه یافته های بیشتر در مورد ریشه ی ژنومی تقارن به دست می آید.

۲-۳-۱) دوشاخه زایی

یك مفهوم كلیدی دیگر، دوشاخه زایی است . دوشاخه زایی، پدیده ای است كه در قالب نظریه ی خاصی به نام نظریه ی دوشاخه زایی مورد تحلیل قرار می گیرد، و بیش از هرچیز به الگوهای شكست تقارن توجه دارد. دوشاخه زایی، عبارت است از انتخابی كه پویایی سیستم، از میان دو یا چند گزینه انجام می دهد. یك سیستم ساده مثل یك پرتابه ی ساده را مجسم كنید كه در هر مقطع زمان تنها یك گزینه برای لحظه ی بعد دارد. یعنی حالت لحظه ی t+1 سیستم، توسط حالت و پویایی لحظه ی t كاملاً تعیین شود. این یك سیستم علّی ساده و جبریست كه در فیزیك كلاسیك زیاد مورد بحث قرار می گیرد. چنین سیستمی، هیچ شانسی برای تجربه كردن دوشاخه زایی ندارد. اما در مقابل آن، به سیستمی پیچیده مثل یك آمیب توجه كنید. پویایی هرلحظه ی آمیب، علاوه بر عوامل موثر در گذشته ی آن، تا حدودی هم در درون خود سیستم تعیین می شوند. مثلاِ یك آمیب ممكن است در برخورد با یك تكه شكر، آن را با بیرون دادن پای كاذب جذب كند، یا اینكه بی توجه به آن از كنارش بگذرد. در اینجا دیگر

قطعیت قابل مشاهده در سیستم ساده وجود ندارد، و در هر مقطع زمانی، چندین گزینه ی رفتاری برای پویایی سیستم قابل تصور است . تا وقتی كه سیستم به لحظه ی t، كه این تنوع رفتاری در آن قابل انتظار است نرسیده، رفتاری خطی و غیرانتخابی دارد. برای او، -قبل ازاینكه به لحظه ی t برسد،- همه ی گزینه های موجود در آینده هم ارز هستند. به این ترتیب، تا قبل از لحظه ی دوشاخه زایی، گزینه ها برای سیستم ناوردا، و بنابراین متقارنند. اما پس از فرا رسیدن لحظه ی t، سیستم به ناچار یكی از راه های پیش رویش را برمی گزیند و به این ترتیب در عمل تقارن موجود بین گزینه ها را می شكند. این پدیده، همان است که bifurcation نام گرفته است . ناگفته پیداست كه این نام چندان هم گویا نیست . چون در عمل معمولاً تعداد گزینه های پیش روی سیستم، بیشتر از دوتا هستند، اما این نام به دوشاخه زایی -پیشوند bi(=دو)- اشاره دارد.

این امر بدیهی به نظر می رسد كه هرچه فاصله ی سیستم از نقطه ی تعادل ترمودینامیكی بیشتر باشد، امكانات در دسترس سیستم، به صورت تعداد بیشتر تعداد شاخه های موجود، بیشتر خواهند بود.

دوشاخه زایی همواره در سیستم هایی كه از حد مشخصی پیچیده تر باشند رخ می دهد.این سیستم ها در حالت پایه ای از تعادل قرار دارند، و در اثر تغییراتی معمولاً اندك، از این تعادل اولیه خارج می شوند و ناچار می شوند به یكی از چند حالت تعادلی تازه ی پیش رویشان وارد شوند. در نظریه ی دوشاخه زایی، این ورود را با تعریف سه مرحله مشخص می كنند:

نخست ) مرحله ی پیش از دوشاخه زایی : در این حالت هنوز پاسخ سیستم به تغییرات محیطی خطی است و در برابر محركهای مشخص، پاسخهایی قابل پیش بینی را نشان می دهد. این خطی بودن رابطه ی بین محرك و پاسخ، تنها در دامنه ی محدودی از شرایط محیطی امكان دارد، و پس از آن علیت ساده ی مورد نظر از بین می رود.

دوم ) مرحله ی دوشاخه زایی : در این حالت، شرایط مرزی مشاهده می شود. یعنی تغییرات محیطی به مرزهای دامنه ی یاد شده نزدیك می شوند، و هنگام رسیدن به تغییرات آستانه ای كه غیرخطی شدن رابطه ی بین محرك و پاسخ را موجب می شوند، پدیده ی دوشاخه زایی را ایجاد می كنند. در این حالت، به دلیل شدید بودن تغییرات تحمیل شده از سوی محیط، سیستم ناچار می شود برای رسیدن به حالت تعادل، یكی از دو یا چند گزینه ی ممكن در مقابلش را انتخاب كند. یا به بیان دیگر، به یكی از چند حالتی كه برایش ممكن است، وارد شود. اینكه سیستم كدام حالت را انتخاب می كند و در اثر تغییرات مرزی وارد كدام نوع از پویایی های ممكن می شود، تا حدودی آشوبناك است، و قابل پیش بینی نیست . تعیین دقیق این انتخاب، وابسته به شناخت كامل شرایط اولیه ی سیستم است، كه هرگز برای ابزارهای شناسایی مملو از عدم قطعیت ما ممكن نیست . این حساسیت به شرایط اولیه، یكی از ویژگی های سیستم های دوشاخه زاست .

سوم ) مرحله ی پس از دوشاخه زایی: در این حالت، سیستم وارد حالت تعادلی جدید می شود كه می تواند انواع مختلف داشته باشد. ممكن است سیستم رفتارهای نوسانی و دوره ای، یا آشوبناك از خود نشان دهد، و یا اینكه بار دیگر در مسیری خطی عمل كند. در نهایت، پویایی آینده ی سیستم همیشه دراطراف یك بستر جذب نوسان خواهد كرد.

بر اساس مفهوم دوشاخه زایی، عبارت دیگری قابل تعریف خواهد بود، كه ما در اینجا آن را حافظه ی سیستم می نامیم .

اگر سیستمی كه یك یا چند مرحله ی دوشاخه زایی را تجربه كرده است، در شرایطی قرار بگیرد و ناچار شود به حالات تعادلی پیشین خود بازگردد، روندی را برمی گزیند كه در واقع عكس مسیر رفتنش است . یعنی سیستم به هنگام روبرو شدن با شرایط ضدتعادلی، بار دیگر همان شاخه ای را برای برگشت انتخاب می كند كه یكبار در گذشته از آن عبور كرده بود. به این ترتیب، سیستم پیچیده دارای نوعی حافظه است، یعنی می تواند گذشته ی خود را به یاد آورد. یادآوری این نكته در اینجا مهم است كه این گزاره را نباید به معنای امكان بازگشت دقیق در جهت عكس محور زمان در نظر گرفت . آنچه كه سیستم در حال برگشت به حال تعادلی اولیه ی خود تجربه می كند، تنها حالتی شبیه به حالت رفت است، و نه همان حالت نخست . پس حافظه ی سیستم حالت كلان و آماری دارد و تنها در كلیات گذشته را به یاد می آورد.

سیستم، در هر لحظه، وابسته به شرایط زمانی مكانی خاص خود، تنها یك مرجع برای تعیین رفتارهایش می شناسد، و آن هم حالت درونی خودش است . یعنی رفتار هر سیستم در لحظه ی t+1 تنها وابسته به رفتار آن سیستم در لحظه ی tاست، و مرجع خارجی ای مهمتر از خود سیستم نمی توان در نظر گرفت . این توانایی سیستم برای سنجیدن شرایط آینده، نسبت به حال ِ خود را ارجاع به خود می نامند.

سیستمی كه خاصیت ارجاع به خود را دارد، به هنگام تجربه ی حركت برگشتی، پدیده ای به نام hysteresis را از خود ظاهر می كند. این واژه به ثابت بودن الگوهای رفت و برگشت سیستم در جریان تغییرفازهای برگشتی دلالت دارد، و در واقع نوعی از ناوردایی نادقیق را بیان می كند. سیستم چنان كه گفتیم می تواند در جریان برگشت خود از روند رفتی خود فاصله بگیرد، اما در نهایت همواره الگوی كلی دوشاخه زایی معكوس خود را حفظ می كند، این حفظ الگو، همان hysteresis است . در واقع این واژه به مفهوم بازآرایی عناصر تشكیل دهنده ی سیستم در حال تغییر، در آرایشی نزدیك به تجربیات قبلیش است .

در زمینه ی دوشاخه زایی یك مفهوم دیگر هم باید عنوان شود، و آن هم عبارت است از تولید بیشینه ی بی نظمی . این به مفهوم این است كه سیستم به هنگام دوشاخه زایی بیشینه ی آنتروپی ممكن را در جریان واكنشهای درونی خود تولید می كند. به عبارت دیگر، تغییر فاز در سیستم همواره با تغییرات شدید آنتروپی -معمولاً مطابق با قانون دوم ترمودینامیك – همراه است . برعكس این گزاره هم راست است . یعنی سیستمی كه در حالت تعادلی یا نزدیك به تعادلی باشد مقدار بسیار اندكی بی نظمی تولید می كند.

به عنوان یك مثال در این مورد، بد نیست به یك پدیده ی آشنای زیستی، یعنی تخم مرغ (!) اشاره كنیم . می دانیم كه روند رشد وزنی جنین جوجه در مدت بیست و یك روزی كه در درون تخم می گذراند، با گذشت زمان پرشتاب تر می شود. و این یك قاعده ی كلی برای تمام مهره داران است . از سوی دیگر می دانیم كه مهمترین نمود آنتروپی در سیستم های بیوشیمیایی، گرماست . چون در واقع گرما عبارت است از انرژی هدر رفته و دفع شده از سیستم (به صورت تحركات كاتوره ای مولكولی )، كه هم ارز بی نظمی افزوده شده بر سیستم است .

حالا به این اعداد توجه كنید: میزان تولید گرمای یك تخم مرغ حاوی جنین، در روز چهارم برابر است با 32/0 وات بر گرم، و در روز شانزدهم برابر است با 6/1 وات برگرم.

دوشاخه زایی، پدیده ای بسیار رایج و معمولی است و نباید آن را به عنوان چیزی غریب و شگفت در نظر گرفت . این نام، در واقع به پایه ای ترین توانایی یك سیستم پیچیده اشاره دارد، كه همان انتخاب است . در جهان جانداران، نمونه های بیشماری از این پدیده را می توان بازیافت . اما معمولاً از صورتبندی ریاضی پیچیده ی دوشاخه زایی برای تحلیل این پدیده ها استفاده نمی شود. با اینهمه استفاده از این راهكار برای كسانی كه بر ابزارهای ریاضی تسلط دارند، مفید و سودمند است . یك نمونه از كارهایی كه به این ترتیب در مورد دوشاخه زایی در سیستم های زنده انجام شده، به حركات دست و پای انسان در حال حركت مربوط می شود. در انسان چندین نقطه ی تعادل برای دینامیسم حركات دست پا موقع راه رفتن می توان تعیین كرد كه عبور از هریك از این نقاط تعادل و ورود به نقطه ی بعدی، با یك گسستگی و تغییر فاز همراه است . اگر بر فضای فاز سیستم مزبور نمایه ی رفتار آن را در طول زمان رسم كنیم، دوشاخه زایی های مشخصی را در نقاط مزبور خواهیم دید (Kelso et al ,1992) .

۳-۳-۱) تغییر فاز

مفهوم دیگری كه باید مورد توجه قرار گیرد، عبارت است از تغییر فاز. پیش از درك این مفهوم،نخست باید معنای فاز یا حالت را درك كرد. فاز، یا حالت، عبارت است از بخشهایی در سیستم، كه ساختار فیزیكی – شیمیایی همگنی داشته باشند. این مناطق باید به لحاظ فضایی از باقی جاها متمایز باشد، و در درون خود تغییرات زیادی را نشان ندهند. به بیان دیگر، همان تعریفی كه سیستم را در كلیت خود از جهان خارج جدا می كرد، در اینجا می تواند زیرواحدهای سیستم را از هم مجزا سازد. به هریك از این زیرواحدها نام فاز را اطلاق می كنند. در حالت عادی، در سیستم های پیچیده چندین فاز قابل تعریف است، و سیستم بسته به شرایط محیطی و پویایی درون خود، یكی از این حالات را انتخاب می كند. به یك معنا، این انتخاب حالت، هم ارز همان دوشاخه زایی است . گاهی هم دیده می شود كه بخشهای مختلف سیستم دارای فازهای گوناگون هستند و در تعادلی پایدار یا ناپایدار با هم قرار دارند. تغییر فاز، عبارت است از گذار سیستم از یك فاز، و ورودش به فاز مجاز دیگر. این تغییر فازها، در عمل با تغییر در

دستگاه تقارنی سیستم هم همراه هستند. همه ی تتغییر فازها، تبدیلاتی گسسته در معادلات تقارنی سیستم را در پی دارند كه به طور آشكار قابل تحلیل و ردگیری است .

انواع تغییر فاز را بر اساس درجه ی معادلات ریاضی بیان كننده ی آنها به دو گروه تقسیم می كنند
(Paul Ehrenfest ,1911 ) . اگر این تغییرات با معادلات دیفرانسیلی مرتبه اول (یعنی با مشتق درجه اول ) قابل صورتبندی باشد، آنها را تغییرفاز مرتبه ی نخست می نامند. مثلاً تغییر فاز مایع -گاز در یك سیستم سیال از این نوع پدیده ها محسوب می شود.

اگر برای بیان معادلات تغییر فاز، معادلات دیفرانسیل مرتبه ی دوم مورد نیاز باشد، آن را تغییرفاز مرتبه دوم می نامند. مثلاً رابطه ی ضریب مغناطیسی شدن را با دما، باید بر اساس مشتق دوم معادلات ترمودینامیكی بیانگر دما نوشت، به این ترتیب این نوع تغییر فاز، از مرتبه ی دوم محسوب می شود.در تمام این تغییر فازها، نقطه ی آستانه ای از تغییرات وجود دارد كه رسیدن به آن فاز كلی سیستم را دگرگون می كند. این نقطه آستانه را معمولاً با Tc نشان می دهند و نشانه ی c در این نماد كوتاه شده ی نام كوری، یا واژه ی بحرانی (critical) است . هنگامی كه سیستم به این نقطه ی بحرانی نزدیك شود، مجموعه ای از نوسانات شدید در پویایی درونی سیستم پدید می آید، كه در نهایت به شكل گیری نظمی جدید، وحالتی تازه می انجامد .

مفهوم تغییر فاز، با وجود صورتبندی ریاضی پیچیده ای كه امروزه پیدا كرده است، چیز بدعت آمیزی نیست . این معنا در آثار به جا مانده از دانشمندان اوایل این قرن هم دیده می شود. به عنوان مثال مراحل رشد عاطفی و روانی فرد از دید فروید، در واقع نشانگر نوعی تغییر فاز است . تغییر فازی كه مراحل سه گانه ی دهانی، مخرجی و احلیلی را در بر می گیرد. امروزه پژوهشهای فراوانی در مورد رشد روانی وکودكان انجام می شود كه اعتبار زیادی هم در حیطه ی روانشناسی دارد، اما در نهایت چیزی جز همان تغییر فازهای سنتی فرویدی نیست . به عنوان مثال، همین فازها در بررسی های روانشناختی متكی بر تحلیل نقاشی كودكان به عنوان مرزهای الگوهای مستقل و مجزای پویایی سیستم در نظر گرفته می شوند(Bischof ,1990).

مثالهای زیادی از تغییر فاز را در زیست شناسی می توان یافت . مثلاً به یك بیماری آشنا مانند سرطان نگاه كنید. یاخته های دارای ویژگیهای فنوتیپی سرطانی همواره در یك بدن سالم و عادی وجود دارند، و جهشهای منتهی به فعال شدن ژنهای سرطان زا هم مرتب در یاخته های گوناگون بدن رخ می دهند. اما آنچه كه اهمیت دارد، چگالی این یاخته های معیوب، نسبت به كل سیستم رفع نقص بدن است . می دانیم كه بدن مرتباً با مكانیسم های تصحیح ژنومی یا ایمنی، یاخته ها و ژنومهای سرطانی را از دور خارج می كند، بنابراین حد آستانه ای وجود دارد كه در بالاتر از آن توانایی سیستم تصحیح كننده از توان تخریب كننده ی یاخته های سرطانی كمتر می شود و به این ترتیب در بالاتر از این آستانه، پدیده ی سرطان -به عنوان یك بیماری – تجربه می شود. در عمل وقتی تعداد سلولهای مزبور به این حد خاص رسید، تغییر فازی در سیستم صورت می گیرد و پویایی جدیدی در كل سازواره پدید می آید كه همان حالت ویرانگرانه ی بیماری باشد (Lofever & Garey ,1977) .

یك مثال مشهور دیگر از تغییر فاز، به پدیده ی حركتی بسیار ساده ای مربوط می شود كه توسط هاكن معرفی شده است . اگر شما دو انگشت همتای دو دستتان را به نوبت و یكی درمیان روی سطح میزی بكوبید، و كم كم بسامد این كارتان را افزایش دهید، در بسامد خیلی زیاد نوعی تغییر فاز را تجربه خواهید كرد. به این شكل كه حركات انگشتانتان -در ضمن تلاشتان برای مكمل نگهداشتن بسامدشان – با هم موازی و همزمان خواهد شد (Kelso,1984). همچنین در گربه و اسب قطع نخاعی شده هم نشان

داده شده كه تغییر دادن محركهای حسی خارجی می تواند باعث تغییر فاز حركات خود به خودی پاها شود و در واقع انواع متفاوتی از گام زدن را به نمایش بگذارد ( Silver&Severin,1966).

۴-۳-۱) خودسازماندهی

مفهوم دیگری كه در اینجا نیازمند توضیح است، مفهوم خودسازماندهی است . خودسازماندهی، بنابر تعریف، عبارت است از فرآیندی كه در آن اثرات كلان محیطی، باعث واكنش ویژه ی سیستم می شوند، به طوری كه در نهایت اندركنش این دو، در طول زمان پیچیدگی سیستم را زیاد كند. به بیان دیگر، خودسازماندهی روندی است در سیستم های باز، كه مخالف صورتبندی قانون دوم ترمودینامیك عمل می كند. سیستم های خودسازمانده، علاوه بر توانایی پیچیده تر كردن ساختار خود در طول زمان، این توانایی را هم دارند كه نظم درونی خود را در برابر محركهای دگرگون كننده ی محیطی حفظ كنند، و از سوی دیگر تاریخچه ی سیستم خود را در درون خود حفظ كنند. یعنی سیستم های خودسازمانده، دارای حافظه، و توانایی بقا هستند. برای بیان این مفهوم صورتبندی های ریاضی فراوانی پیشنهاد شده است كه من در اینجا به ذكر معادله ی ساده تری كه توسط هاكن پیشنهاد شده است بسنده می كنم : Q= – Yq + F(t)

در این معادله t عبارت است از زمان، F(t) بیانگر نیروی خارجی وارد شده به سیستم است، آنگاه كه به صورت تابعی از زمان مطرح شود، Yq برابر است با عدد میرایی سیستم، یعنی سرعتی که در غیاب F(t)، اثرات محیطی در سیستم جذب شده و تحلیل می روند. Q هم نماینده ی رفتار سیستم در طول زمان است، كه برابر می شود با: dq/dt

بنابر قوانین پایه ی ترمودینامیك، همه ی سیستم ها در نهایت باید در طول زمان به سوی بی نظمی ومرگ پیش روند. سیستم های خودسازمانده، در این مورد استثنایی موقت را به نمایش می گذارند، یعنی به دلیل شكستهای پیاپی تقارن در پویایی خود، و انتخاب گزینه های دارای اطلاعات بیشتر در روند دوشاخه زایی، در نهایت پیچیدگی خود را در جریان زمان افزایش می دهند. اینكه سیستم های خودسازمانده، چطور چنین كاری را انجام می دهند، پرسشی مهم است كه در همین نوشتار به آن پاسخ خواهیم داد. در اینجا همینقدر كافی است كه از شرودینگر نقل قول كنیم :

سیستم های زنده، به این دلیل مخالف با قانون دوم ترمودینامیك عمل می كنند، كه سیستم هایی باز هستند.

بیایید نگاهی دیگر بیندازیم به مفهوم بی تقارنی در نزد كوری . بر اساس قانون كوری، مقدار بی تقارنی موجود در یك سیستم پس از اثر یك محرك محیطی بر آن، برابر خواهد بود با حاصل جمع بی تقارنی اولیه، با بی تقارنی نهفته در بردار معرف اثر خارجی . یعنی اگر سیستمی با وضعیتی پایه ای را از نظر بی تقارنی داشته باشیم، كه در برابر یك محرك محیطی با بی تقارنی خاص خود قرار گیرد، آنگاه سیستم مورد نظر ما در برابر این اثر تغییری خواهد كرد، و مقدار بی تقارنی نهایی آن برابر خواهد بود با مجموع دو كمیت نخست .

یعنی هر تغییری كه در سیستم ایجاد شود، با نوعی تغییر در تقارن سیستم هم همراه خواهد بود. به عبارت دیگر، پویایی سیستم را می توان بر اساس حالات تقارنی آن در طول زمان تعریف كرد. پس مهمترین چیزی كه باید برای تحلیل پویایی یك سیستم در طول زمان مورد توجه قرار گیرد، حالات تقارنی آن است . خودسازماندهی هم نوعی خاص از این تغییرات تقارنی است، كه اشكال ویژه ای از رابطه ی میان علل محیطی تغییر دهنده ی تقارن، و واكنشهای درونی سیستم رادر بر می گیرد. به این ترتیب، پرسش اصلی مورد نظر در نظریه های هم افزایی هم شفافتر قابل بیان خواهد بود:

هم افزایی، در پی یافتن رابطه ی خاصی است كه بین بی تقارنی های ویژه ی درونی، و بی تقارنی های ناشی از علل محیطی سیستم وجود دارد.

با این شكل از بیان پرسش، می بینیم كه باید خواه ناخواه خودسازماندهی را به عنوان یكی از بنیادی ترین شاخه های دانش امروز در نظر بگیریم . این دانش، بر اساس طرح پرسش یاد شده، به دو مفهوم می پردازد: پویایی سیستم، و تقارن موجود در آن، پویایی، در واقع عبارت است از حركت (كه پایه ای ترین مفهوم فیزیك است ) و تقارن عبارت است از ناوردایی در برابر تبدیل ها (یا برابری، كه بنیادی ترین مفهوم در ریاضیات است ).

مفهوم دیگری به نام خودافزایی هم در اینجا وجود دارد كه با انواع خاصی از سیستم ها تعریف می شود. یك سیستم خودافزا، سیستمی است كه دارای نوساناتی با ریشه ی محیطی باشد، و بتواند اثر این نوسانات را به كمك ساختار درونی خود، خنثی كند، و از آن برای ورود به حالت تعادلی جدید استفاده كند. به عبارت دیگر واكنش سیستم های خودافزا در برابر نوسانات خارجی، بسیار پیچیده است . تا حد آستانه ی خاصی، این نوسانات را توسط مكانیسم های بازخوردی حذف می كنند و تعادل اولیه ی خود را حفظ می كنند، و پس از گذر نوسانات از آن آستانه ی خاص، به حالت تعادلی تازه ای وارد می شوند كه آن نیز می تواند به نوبه ی خود مقاومتی مشخص در برابر دگرگونی های محیطی داشته باشد. تفاوت خودافزایی با خودسازماندهی این است كه سیستم های خودافزا، از تغییرات محیطی برای بیشتر كردن اطلاعات درونی خوداستفاده نمی كنند، اما سیستم های خودسازمانده چنین می كنند. یعنی سیستم های خودافزا این توانایی رادارند كه در برابر محركهای محیطی حالت تعادلی پایه ی خود را با تغییراتی پیچیده و در دامنه ای خاص حفظ كنند. اما نظام های خودسازمانده از این تغییرات برای ورود به حالات تعادلی پیچیده تر و افزودن بر پیچیدگی درونی خود استفاده می كنند. یعنی واكنشهای سیستم خودافزا نسبت به نوسانات محیطی -در عین پایدار بودن – تكاملی نیست، ولی در پدیده ی خودسازماندهی چنین است .

۵-۳-۱) آشوب

آشوب عنوان دیگری است كه به تازگی در زمینه ی نظریه ی سیستم های پیچیده نقشی مهم و مركزی پیدا كرده است . مفهوم آشوب برای بار نخست در دانش آب و هواشناسی شناخته شد. دانشمندی به نام لورنتز در اواسط دهه ی شصت قرن حاضر میلادی، متوجه شد كه دقیقترین تخمین ها از وضع آب وهوای آینده ی یك منطقه، -حتی اگر از سوی تمام داده های ممكن هم تغذیه شود،- هرگز ضریب اطمینانی بیشتر از 85/0 به دست نمی آورد. لورنتز كه یك ریاضیدان توانا هم بود توانست مدلی برای رفتار سیستم های آب و هوایی پیدا كند. این مدلها كه بر سه بعد تصویر شده بودند، معادلات خاصی را به دست دادند كه بعدها به نام معادلات لورنتزی مشهور شدند و خاصیتی به نام آشوب را از خود نشان می دادند. خاصیتی كه بر مبنای رفتار غیرقابل پیش بینی و نامنظم آنها استوار بود (Lorentz ,1963). واژه ی آشوب، با وجود داشتن مفهوم نسبی آشكار، تعریف ریاضی دقیقی ندارد و نمی توان مجموعه ای از معادلات را به عنوان صورتبندی منفرد آشوب معرفی كرد. در واقع ما مجموعه ای از معادلات را داریم كه در شرایط حدی خاصی آشوب را بیان می كنند.با وجود تعریف ناپذیر بودن مفهوم آشوب، نمودهای تجربی آن به خوبی مشخصند. سیستمی آشوبناك است كه پیش بینی رفتارش به دلیل حساسیت اغراق آمیز آن به شرایط اولیه ی سیستم ناممكن باشد. این عدم قطعیت آنگاه كه بر نمایه های نشانگر پویایی سیستم به نمایش گزارده شود، مجموعه ای از جهشهای نامنظم و كاتوره ای را آشكار می كند كه در اصل نمود ریاضی آشوب است . سیستم های آشوبناك به آب و هوا یا جانداران منحصر نمی شوند. فیزیكدانان توانسته اند نشان دهند كه حتی سیستم های ساده ای مانند دو توپ كه در یك جعبه ی متحرك قرار گرفته باشد هم می تواند رفتار آشوبناك از خود نشان دهد (Sinai et al,1962). همچنین مدلهای مكانیكی ساده ای هم وجود دارند كه چنین رفتاری را از خود نشان می دهند. به این ترتیب باید در مورد تعریف پیچیدگی آستانه ی لازم برای ظهور پدیده ی آشوب، دقت بیشتری كرد.

آشوب، بر مبنای پویایی سیستم تعریف شد، و پویایی سیستم، خود از مجموعه ای از نوسانات تشكیل شده است . بنابراین برای نیل به درك بهتری از آشوب، فهمیدن معنای نوسان هم اهمیت دارد. این واژه، از ریشه ی لاتینی مشتق شده و معنای دگرگون شدن و بالا و پایین رفتن را می دهد. در شیمی سنتی از این واژه برای اشاره به تغییرات غلظت یا مقدار ماده ی موجود در محیط آزمایش استفاده می كردند. اما در نظریه سیستم های پیچیده، از آن را برای برچسب زدن به نوع خاصی از پدیده ها بهره می برند كه مهمترینش تغییر در سرعت واكنش و روند كلی سیستم است . مثلاً تغییرات سرعت تشكیل یك نوع خاص ماده، در اثر عمل نوع ویژه ای آنزیم بر سوبسترای خاصش، نوسان محسوب می شود، و به همین ترتیب هم مثلاً تغییرات دمای بدن یك جانور را باید نوعی نوسان در نظر گرفت .

نوسانات می توانند دو جور باشند: یا در اثر علل درونی خود سیستم پدید می آیند، (مثل همه ی رفتارهای بازخوردی ) و یا ریشه در علل محیطی دارند. سیستم هایی كه متغیرهای تعیین كننده ی رفتارشان در حالات مرزی و نزدیك به مقادیر بحرانی باشد، معمولاِ الگوی پیچیده و آشوبناكی از نوسانات را از خود نشان می دهند، كه در نهایت به ورود سیستم به حالت تعادلی تازه ای می انجامد.

رفتارهای نوسانی، بخش عمده ای از پدیده های منظم موجود در سیستم های زنده را در بر می گیرند. در واقع آنچه كه در دید اول به نظر یك مشاهده گر خام دست نظم می آید، تنها همین نمودهای دوره ای و متناوب در پویایی سیستم پیچیده است . به عنوان چند مثال مشهور، می توان به پویایی جست و جوهای غذایابی در مورچگان سواره، و یا لانه سازی در موریانگان اشاره كرد. همچنین مورد مشابهی در پدیده ی شكل گیری بره كندو مشاهده شده است . در اینجا هم نوسانات ناشی از پیدایش افراد بالغ تازه در كلنی، اگر به حد آستانه ای برسد، تغییر فاز در رفتار زنبوران كارگر را موجب می شود و گردآمدن این زنبوران بر درختان نزدیك كلنی مادر، بره كندو را ایجاد می كند (Pregogine,1976).

مثال مشهور دیگر، چیزی است كه همه ی ما در بدن خودمان تجربه اش می كنیم . در تمام جانوران چرخه های سه گانه ی روزانه، ماهانه و سالیانه را می شناسیم كه به ترتیب در اثر حركت دوره ای زمین، ماه و خورشید پدید می آیند. این چرخه ها، كه توسط سیستم عصبی جانوران -در صورت وجود كنترل می شوند- در نهایت ریشه در كدهای ژنومی دارند. به عنوان مثال، موتان های مگس سركه ی pseudoobscura Drosophyla كه در ژن per خود ایراد دارند، این چرخه ها را با تناوبی متفاوت، و یا حتی آشوبناك از خود نشان می دهند
(Konopka & Wells ,1980). بنیاد ژنتیكی مشابهی در موجوات ساده تر هم پیدا شده است . مثلاً ژن frq در كپك ( Gardner & Feldman ,1980 (Neurospura، ژن per در پارامسی (Woodward et al,1966 ) و Mergen&Hagen ,& Chlamydomonas 1980)). در پس همه حرفهای ما در مورد اهمیت پویایی شبه تعادلی و پیچیده نباید اینطور نتیجه گرفت كه نوسانات ساده و تناوب های ابتدایی در سیستم های زنده وجود ندارند. برعكس،چنان كه دیدیم این تناوب ها در بنیادی ترین سطح تعریف نظم سازواره های زنده، -یعنی ژنوم – تعریف می شوند.

اما با وجود عام بودن این نوسانات منظم، نباید تمام تغییرات موجود در پویایی سازواره ها را این چنین فرض كرد. سیستم های زنده در كنار این نوسانات منظم، نمودهایی از رفتار آشوبناك را هم از خود نشان می دهند. آشوب، خود نوعی نوسان نامنظم و كاتوره ایست، و بنابراین ماهیتی یكسان با آن دارد. تغییر فازهای فراوانی در جانوران شناخته شده است كه رفتارهای دارای تناوب منظم را به غیر منظم تبدیل می كند، و یا برعكس از حالت پایه ی آشوبناك، نوساناتی منظم را پدید می آورد. به عنوان مثال، نشان داده شده كه در بیماری قلبی Cheyn -Stokes نوسان طبیعی مربوط به حركات تنفسی حالتی آشوبناك پیدا می كند، و یا برعكس در Catatonic Schizophrenia رفتار آشوبناك عادی حاكم بر عضلات ارادی اسكلتی به دوره های منظمی از حركات محدود و تكرار شونده منحصر می شود. همچنین نشان داده شده كه تخلیه ی پتانسیل عمل نسبت به محور زمان در یك نورون منفرد نیز حالتی آشوبناك دارد. اینها همه شواهدی است كه اساسی بودن پویایی آشوبناك در نظامهای زنده را تأیید می كند (West ,1990).

به دلیل پیچیده بودن افراطی سیستم های زنده، امكانات ممكن برای پویایی این سیستم ها خیلی بیشتر از سازمان های ساده تر است . مثال های خوبی از اثر این پیچیدگی در شكل گیری آشوب را می توان در سیستم های زنده ی دارای سلسله مراتب مشاهده كرد. در اندركنش بین این سطوح گوناگون می توان به خوبی مفهوم حساسیت به شرایط اولیه را دریافت . نمونه های برجسته ای از این قضیه توسط رفتارشناسان معرفی شده است . مثلاً نشان داده شده كه در یك جامعه از میمونهای رزوس، رفتار اجتماعی جفت های دوتایی تعیین كننده ی موقعیت اجتماعی یك میمون در كل جمعیت نیست . یعنی اگر ما تمام اطلاعات مربوط به ارتباطات دو به دوی افراد را داشته باشیم، باز هم نمی توانیم موقعیت اجتماعی یكی از میمونها را قبل از مشاهدات مستقیم پیش بینی كنیم (Maslow ,1936).

مثال دیگر در این مورد، به بوزینه های مقدس (.Papio sp) برمی گردد. دو گونه از این بوزینه ها وجود دارند كه از نظر فیزیولوژیك می توانند با هم زادآوری داشته باشند و به همین دلیل هم مدتها به عنوان دو زیرگونه از هم متمایز می شدند. تنها تفاوت بین این دو گونه، در این است كه افراد نر در گونه ی موسوم به P.anubis تنها در فصل جفتگیری به ماده گرایش نشان می دهند، در صورتی كه نرهای P.hamadryas در تمام فصول این گرایش را حفظ می كنند. همین تفاوت رفتاری كوچك، منجر به این می شود كه كل ساختار اجتماعی، بوم های مورد ترجیح، و روش زندگی در دو گونه با هم تفاوت كند و این تفاوت به قدری زیاد باشد كه جفتگیری در شرایط طبیعی انجام نشود (Kummer ,1971). در اینجا به خوبی آشكار است كه تغییر جزئی در شرایط اولیه چگونه به تغییرات برجسته و بزرگ در سطوح بالاتر پیچیدگی منجر می شود.

هرج و مرج، اصطلاح دیگری است كه در این قلمرو نیازمند توضیح به نظر می رسد. این واژه در نظریه ی پیچیدگی، به معنای تغییر تعادل ناشی از رفتارهای آشوبناك است . در واقع این نام از كارهای یك ریاضیدان تأثیرگذار فرانسوی به نام رنه توم مشتق شده است . او كسی بود كه نظریه ی هرج و مرج را بنیان نهاد، و مبانی ریاضی تغییر فاز و تحول در نمای تعادلی سیستم را ایجاد كرد (Thom ,1972).

تفاوت این نظریه با تغییرفاز آشنای عنوان شده در سطور قبل، این است كه در اینجا تغییرات لزوماً علت خارجی دارند و همیشه فشارهای ناشی از محیط است كه تغییر وضع تعادلی را در سیستم القا می كند. درضمن تغییر تعادل ناشی از این محركهای خارجی هم به خودسازماندهی نمی انجامند، بلكه تنها نوعی زمینه ی “هرج و مرجی ” را پدید می آورند كه می تواند به ظهور پویایی خودسازمانده در شرایط خاصی منجر شود. بنابراین مفهوم هرج و مرج، بیشتر با تغییرات گسسته ی تعادلی در سیستم های دارای متغیرهای پیوسته پیوند دارد، و به پویایی پیچیده و بالنده ی مورد نظر ما نمی انجامد. در واقع اصل حرف این نظریه، این است كه سیستم های پیوسته ی پیچیده، می توانند به اشكالی تحلیل پذیر، رفتارهای گسسته از خود نشان دهند.

 

 

  1. auropoiesis

 

 

ادامه مطلب: نمودهای هم افزایی

رفتن به: صفحات نخست و فهرست کتاب