پنجشنبه , آذر 22 1403

تعریف محتوای اطلاعاتی سیستم زنده

تعریف محتوای اطلاعاتی سیستم زنده

چنانكه گفتیم، پیچیدگی درونی سیستم های زنده در طول زمان افزایش می یابد. اما این گزاره، آنگاه كه مستقل از شواهد زیست شناختی دقیقتر بیان شود، مبهم جلوه می كند. در اینجا می خواهم نگاهی موشكافانه تر به مفهوم پیچیدگی در سیستم های زنده بیندازم و پیچیدگی یاد شده را بهتر تعریف كنم .

موجود زنده، آنگاه كه برای نیل به تعریفی از پیچیدگی مورد بررسی قرار گیرد، از دو جنبه می تواند ما را هدایت كند. نخست ریخت و ساختار ظاهری موجود در مقطع زمان مورد مشاهده، و دیگری كاری كه این سیستم انجام می دهد. پرداختن به این دو جنبه از سیستم زنده، و ترجیح یكی از آنها بر دیگری، ریشه ی دو نگرش سنتی و مهم در زیست شناسی سیستمی است . یكی از این دو نگرش، ساختارگرا و دیگری كاركردگرا نامیده می شوند.

دیدگاه ساختارگرا، ساختار و ریخت ظاهری موجودات زنده را به عنوان مهمترین شاخص تعیین ماهیتشان مورد توجه قرار می دهد، و ملموس بودن شواهد ریخت شناختی را عاملی برای ترجیح ساختار بر كاركرد می داند. به بیان دیگر، در این دیدگاه ساختار و ریخت است كه كاركرد را تعیین می كند. ساختارگرایان، بسته به موضعی كه در مقابل مفهوم زمان انتخاب می كنند، به دو دسته تقسیم می شوند. اگر علاقمندان به این دیدگاه، به تاریخچه ی ریخت هم علاقمند باشند و تغییرات ساختار در طول زمان را به عنوان راهبردی كلیدی در شناسایی سیستم زنده مورد استفاده قرار دهند، چیزی پدید می آید به نام ساختارگرایی تاریخ مند. در این نگرش، تغییرات ساختار موجودات زنده در طول زمان به سوی جهتی مشخص میل می كند و هدفمندی درونی یا خارجی ای در الگوی تغییرات ریختی جانداران قابل فرض است . هواداران نظریات تكاملی Orthogenetic از پیروان چنین دیدگاهی هستند. دید ساختارگرایی تاریخ مند، در واقع اشكال كنونی جانداران را به عنوان حالات حد واسطی درك می كند كه راه را برای رسیدن به ریختی بهینه و آرمانی هموار می كنند. ناگفته پیداست كه این نوع نگاه كردن به مفهوم ساختار، نوعی غایت انگاری ارسطویی را در زیر لایه ی نازك مشاهده پنهان كرده است .

نوع دیگر پرداختن به شكل جانداران، از نگرش ساختارگرای غیرتاریخ مند ناشی می شود. در این دیدگاه زمان تنها به عنوان زمینه ی تغییر جانداران معنا دارد و اهمیتی غایت انگارانه بر آن متصور نیست . در این نگرش، بیشتر ریخت موجود در مقطع زمان مورد توجه است و گرایشهای تكاملی چندان به بازی گرفته نمی شود. شاخه هایی از زیست شناسی، بر اساس این دیدگاه شكل گرفته اند كه از آن میان می توان به علم رده بندی و زیست شناسی تكوینی اشاره كرد.

دیدگاه كاركردگرا، چنانكه گفتیم، كاركرد را تعیین كننده ی ساختار می داند. این دیدگاه، مشاهده ی كاركرد سیستم زنده را مهمترین وسیله ی شناسایی ماهیت آن می داند و ریخت موجودات را به عنوان محصول جانبی این عنصر مهم (یعنی كاركرد) در نظر می گیرد. این دیدگاه هم می تواند دو صورت تاریخ مند و غیرتاریخ مند پیدا كند. در نوع تاریخ مند، تغییرات كاركردی مهم در طول زمان در نظر گرفته می شوند و الگویی معنادار و كلی را پدید می آورند. این جنبه از كاركردگرایی، می تواند غایت انگارانه باشد (مثل Neolamarckism ) یا نباشد (مثل NeoDarwinism) . جنبه ی غیرتاریخ مند قضیه هم به موقعی مربوط می شود كه كاركردهای سیستم زنده در بازه های زمانی كوتاهی بررسی شود. علومی مانند تنكارشناسی، بوم شناسی، و رفتارشناسی نمونه هایی از این نگرش‌ها هستند.

در تاریخ علم زیست شناسی، این دو دیدگاه اصلی همواره در حال برخورد و رقابت با یكدیگر بوده اند. در عمل، پیدایش تمام شاخه های گوناگون زیست شناسی و رویكردهای مختلف به مفهوم زندگی را می توان در سایه ی این دو نوع نگرش درك كرد. از نظر تاریخی، كسی كه در میدان رقابت این دو رقیب نقش كلیدی ایفا كرده است، بی تردید داروین است . او با معرفی دیدگاه تكاملی خود، دو مفهوم بنیادین و اساسی را وارد زیست شناسی كرد. نخست این كه همه ی جانداران جد مشترك دارند و بنابراین

در تكامل خود از اصول پایه ی مشابهی پیروی می كنند، و دیگری این كه عوامل محیطی می تواند ساختار درونی جانداران را تعیین كند. تعیین ساختار توسط عوامل محیطی و درونی سیستم زنده، همان است كه به نفع جبهه ی كاركردگرا عمل كرده و بینش علت جویانه و تحلیلی را وارد زیست شناسی كرده است . این مفهوم كه ریخت و ساختار سیستم های زنده در اثر عوامل محیطی (بوم شناختی ) و درونی (جهشهای ژنومی ) تغییر می كند، پیامد منطقی قانون انتخاب طبیعی است، و همین اصل است كه امكان تعیین ساختار توسط كاركرد را تقویت می كند.

امروز، ما می دانیم كه هر دو دیدگاه یاد شده به نوعی درگیر ساده اندیشی بوده اند. تفكر سیستمی كه امروز زیست شناسی را در خود غرق كرده است، دو مفهوم ریخت و كاركرد را مستقل از هم در نظر نمی گیرد، بلكه هردو را دو جنبه از پدیده ای یگانه، یعنی سیستم زنده می داند. به همین دلیل هم، تحلیلی افراطی و متعصبانه ی قدیمی در مورد تقدس شكل یا عملكرد را معقول نمی داند.

زیسشناسان سنتی، هنگامی كه می خواستند وارد بحث پیچیدگی شوند، ناچار بودند یكی از این دو رویكرد پایه را به عنوان نقطه ی شروع خود برگزینند. آنان یا تنوع رفتارهای جاندار را به عنوان شاخص پیچیدگی موجود در نظر می گرفتند، و یا تحلیلهای ریخت شناختی را جایگزین تخمین محتوای اطلاعاتی موجود می كردند. اگر ما بخواهیم فراتر از این دیدگاه های قدیمی بحث كنیم، ناچاریم به شكلی هردو رویكرد را در كنار هم مطرح كنیم و به نوعی یین و یانگ ِ “عمل -شكل ” معتقد شویم .

با این مقدمه، می توانیم دست به تحلیل محتوای كل اطلاعات درون یك سیستم زنده بزنیم . اطلاعات یاد شده را می توان به دو دسته تقسیم كرد:

نخست ) اطلاعات درونی : این نام را به عنوان برابرنهاد اصطلاح اطلاعات دستوری برگزیده ام . اطلاعات درونی عبارت است از كل اطلاعاتی كه مستقل از جهان خارج، در درون سیستم زنده وجود دارند. به این ترتیب تمام دستوركارهایی كه به صورت كدهای ژنومی در درون ساختار زنده ذخیره شده اند، و سایر انواع داده هایی كه معمولاً از همان ژنوم نتیجه می شوند، در این دسته قرار می گیرند. مهمترین ویژگی این نوع اطلاعات، این است كه زیر اثر تغییرات محیطی تغییر نمی كند و حالتی پایدار و خودكفا دارد. البته این حرف ما در ابعاد كلان معنا دارد و كسی نمی تواند منكر اثرپذیری اطلاعات درونی از عوامل تصادفی جهان خارج شود. جهشهای ژنومی در اثر عوامل خارجی ای مانند پرتوهای فرابنفش نمونه هایی از این موار نقضند.

دوم ) اطلاعات بیرونی : این اطلاعات، مكمل چیزی است كه در بند قبل ذكر شد. در عمل تمام داده های قابل ردیابی در سیستم زنده، كه توسط محیط تعیین شوند، در این دسته قرار می گیرند.

بر اساس این تقسیم بندی، مفاهیم كاركردی، بیشتر در این عنوان می گنجند و همتاهای ساختاری آنها را باید در بند قبلی سراغ كرد. البته در اینجا دیگر خط فاصل تر و تمیز و دقیقی كه این دو مفهوم را از یكدیگر جدا كند رسم نشده و كاركرد و شكل به نوعی به هم آغشته شده اند.

آنچه كه ما با عنوان “افزایش پیچیدگی زندگی در طول زمان ” ذكر كردیم، به بیان دقیتر عبارت است از بیشتر شدن اطلاعات درونی و بیرونی، در طول زمان .

این افزایش اطلاعات، به طور همگن در ساختارهای زنده صورت نمی گیرد. بخش مهمی از اطلاعات دستوری در كل مدت عمر سیستم زنده هرگز بیان نمی شود و بخش دیگری هم اصولاً غیر قابل بیان هستند. به عنوان مثال توالیهای دارای تكرار بالا (مثل توالیهای تلومری) اسیدهای آمینه ی پروتئین خاصی را كد نمی كنند، و بخش دیگری هم كه این كار را می كنند، هرگز فرصت عمل و ظاهر كردن صفات را نمی یابند (مثل آللهای مغلوب در هتروزیگوت ها).

چنانكه گفتیم، پدیده ی افزایش اطلاعات در درون ساختارهای زنده، با آنچه كه قانون دوم ترمودینامیك در مورد سیستم های بسته می گوید ناهمریخت است . به این دلیل واژه ی تخصصی ناهمریخت را به كار می برم كه تناقض این دو مورد خدشه ای به قانون دوم وارد نمی كند. سیستم های زنده همگی باز هستند و سیستم بسته ی آرمانی اصلاً وجود ندارد. با اینهمه، آنچه كه ما در حالت عادی در سیستم های دور و اطرافمان می بینیم، نمودهایی از قانون دوم ترمودینامیك است . سیستم های زنده، و برخی از سیستم های استثنایی دیگر كه خودسازمانده و غیرزنده هستند، تنها نمونه هایی هستند كه از این قاعده پیروی نمی كنند.

همانطور كه ذكر شد، به دلیل بسته نبودن ساختارهای زنده، افزایش پیچیدگی در آنها را نمی توان ردی بر قانون دوم دانست، اما به هر صورت این پویایی غیرعادی و رشد یابنده چیزی است كه باید توسط زیست شناسان و بیوشیمیست ها پاسخ داده شود. چه چیزی در سیستم های زنده وجود دارد كه باعث می شود بر خلاف سایر سیستم ها، در طول زمان نظمشان زیادتر شود؟

دانشمندان زیادی كوشیده اند تا به این پرسش پاسخ دهند. در اینجا به عنوان پیشینه، تنها دو رویكرد از میان انبوه پیشنهادات ممكن در اینباره را برگزیده و همان ها را به طور گذرا ذكر خواهم كرد، بعد به شرح دیدگاه مورد علاقه ی خود می پردازم .

نخستین رویكرد موفق در این رابطه، حاصل تلاشهای متخصصان بیوفیزیك و شیمی -فیزیك بوده است . مشهورترین این افراد، پریگوژین است كه مفهوم پویایی سیستم های باز را وارد قلمرو دیدگاه سیستمی در مورد زندگی كرد. بر اساس مدلهای ارائه شده توسط او، كل جهان یك سیستم بسته ی غول پیكر است كه بر اساس قانون دوم ترمودینامیك مرتباً بی نظمی خود را افزایش، و پیچیدگی خود را كاهش می دهد. اما در درون این ابرسیستم بزرگ، بیشمار زیرسیستم دیگر داریم كه برخی از آنها توسط انرژی تولید شده از محیطشان تغذیه می شوند. پریگوژین توانست نشان دهد كه سیستم های نامنظم پس از جذب انرژی از محیطشان می توانند به طور موضعی و موقت، نظم را در مناطقی از خود زیاد كنند (Pregogine et al ,1980, 1984 ) . این نقض موضعی قانون دوم ترمودینامیك، پدیده ای نادر، و موقت است، و در نهایت سیستم بار دیگر بر اساس روند طبیعی خود رو به بی نظمی و تعادل ترمودینامیك با محیط پیش می رود. این ویژگی ها، در واقع صفات سیستم های زنده هم هستند. آنها هم سیستم هایی باز هستند كه انرژی را از محیط خود دریافت می كنند و در زمانی كوتاه پیچیدگی درونی خود را بیشتر می كنند. همه ی این سیستم ها در نهایت رو به بی نظمی پیش می روند و با محیط خود به تعادل می رسند. و این همان است كه مرگ نامیده می شود. نكته ی مهم در این میان این است كه ساختارهای زنده توانایی تولید مثل دارند و بنابراین اطلاعات گرد آمده در یك سیستم باز مخالف با قانون دوم ترمودینامیك، پس از مرگ آن سیستم از بین نمی رود، بلكه در قالب سیستم های فرزندی باقی می ماند تا باز تغییرات بیشتری را تحمل كند و از پیچیدگی بیشتری برخوردار شود. به این ترتیب تكامل ممكن می شود و دودمانی از این سیستم های كوتاه عمر و پرزاد و ولد می توانند چیزی به شگفتی زندگی امروزی را بر زمین را ایجاد كنند.

دومین توجیه در مورد پیچیده تر شدن سیستم های زنده، به اخترفیزیكدانانی مانند لیزر( 0 ) تعلق دارد. این دانشمند معتقد است كه سیستم باز هم مانند سایر سیستم ها در طول زمان آنتروپی اش را افزایش می دهد و به سوی بی نظمی پیش می رود، ولی این كار را با آهنگی كندتر از محیطش انجام می دهد و به همین دلیل هم از دید ناظران خارجی پیچیده تر فرض می شود. در این دیدگاه، چیزی مخالف با قانون دوم ترمودینامیك در سیستم های باز صورت نمی گیرد، بلكه تنها نوعی خطای دید ناشی از نسبیت مفهوم نظم و پیچیدگی در این میان وجود دارد (Layzer & Landsberg ,1984) .

توجیه دیگری كه در این مورد وجود دارد، به كار جانورشناسان و تحلیلگران سیستم های زیستی مربوط می شود. این دسته از پژوهشگران كوشیدند تا با آشتی دادن داده های زیستی با قوانین ترمودینامیك، افزایش پیچیدگی در سیستم های زنده را به شكلی متفاوت توجیه كنند. در این دسته از تحلیل ها، تلاش می شود تا افزایش آنتروپی در درون سیستم های زنده (كه از قانون دوم ترمودینامیك بر می آید) تناقضی با افزایش اطلاعات و پیچیدگی (كه بر مبنای مشاهده تجربه می شود) پیدا نكند. وایلی و بروكس، دو زیست شناس مطرحی هستند كه نظریاتشان در این مورد مورد علاقه ی ماست و در این نوشتار بیشتر بر اساس رویكرد ایشان به موضوع خواهیم پرداخت .

برای شرح توجیهی كه مورد علاقه ی این نوشتار است، لازم است تا برخی از مفاهیم پایه ی ترمودینامیكی و نظریه ی اطلاعاتی دانسته فرض شود. از آنجا كه این فرض در بسیاری از موارد در مورد خوانندگان صدق نمی كند، و از سوی دیگر امكان پرداخت مفصل به این بحث در اینجا وجود ندارد، در اینجا نگاهی كوتاه به كلیت مفاهیم مقدماتی خواهیم انداخت و خواننده ی علاقمند را به مطالعه ی منابع یاد شده در انتهای رساله تشویق می كنیم .

 ۱-۲-۲) مفاهیم ترمودینامیك

مفهوم ترمودینامیك برای اولین بار هنگامی مطرح شد كه موتورهای بخاری اولیه دوران شكوفایی صنعتی را به ارمغان آورده بودند و بهینه كردن كاركردشان برای صاحبان صنایع امری حیاتی محسوب می شد. معادلات ابتدایی ِ بیان كننده ی رفتار موتورهای درون سوز و بخاری، از صورتبندی ساده ای پیروی می كرد:

این معادلات اولیه، به بیان ساده این امر را بیان می كردند كه در صورت تغذیه نشدن سیستم توسط انرژی تازه، دمای آن آنقدر كاهش می یابد تا با دمای محیط یكسان شود. این برابری ساده، در اصل بیانگر مفهومی آشناست، كه همان آنتروپی باشد. میل كردن دمای درونی سیستم به دمای محیط، همان است كه پیش از این مرگ ترمودینامیك نامیدیمش، و گفتیم یكی از نمودهای افزایش آنتروپی در طول زمان است . اگر بخواهیم مفهوم آنتروپی یا بی نظمی را با دقتی بیشتر وارد معادلاتمان كنیم، به صورتبندی مشهوری می رسیم:

که در آن s نماد آنتروپی، p نماینده فشار، V نشانگر حجم، و T علامت دما ست. مفهوم این معادله این است که در شرایط حجم و فشار ثابت، یك سیستم ترمودینامیكی گرم با گذشت زمان دمایش را از دست می دهد و به سمت دمای محیط میل می كند. این تمایل به تعادل ترمودینامیك، در واقع همان گرایش به رسید به بیشینه ی بی نظمی است . چرا كه تقارن آماری دمای درون و برون سیستم، چنین مفهومی را در ذهن متبادر می كند.

معادله ی بعدی، كه از همین برابری های ساده نتیجه می شود، این است :

كه در آن عبارت است از تغییرات آنتروپی، T برابرست با دما، معادل است با تغییرات انرژی كل سیستم، و نشانگر تغییرات انرژی آزاد هلمهولتز است . این معادله ی پایه در سیستم های متفاوت اشكال فرعی گوناگون به خود می گیرد. در سیستم های بسته، طبق قانون دوم ترمودینامیك، همیشه در سیستم های شیمیایی، كه ساختارهای زنده را هم در بر می گیرد، این معادله به جایگزینی های شیمیایی، مربوطه، به این ترتیب تغییر می كند:

كه در آن برابر است با آنتالپی یا محتوای گرمای سیستم، و عبارت است از انرژی آزاد گیبس در واكنشهای Exotermic كه ساده ترین واكنشهای شیمیایی را در بر می گیرند، سیستم اندركنش شیمیایی توسط انرژی (معمولاً گرمایی) خارج سیستم تغذیه می شود. در این حالت همیشه

در سیستم هایی كه واكنشها به صورت درونزاد و خود به خود انجام می شوند، همیشه ناگفته پیداست كه واكنشهای بیوشیمیایی درونی سیستم زنده را نیز باید در همین چهارچوب توجیه كرد.

اگر در معادلات یاد شده، به جای همتای آن را قرار دهیم، به این برابری می رسیم :

که در آن برابر است با پتانسیل شیمیایی واكنش . در این معادلات، هرچه زمان بگذرد، سیستم به تعادل شیمیایی نزدیكتر می شود و در نتیجه كاهش یافته، و افزایش می یابد .

یكی از بنیانگذاران نظریات ترمودینامیك، بولتزمان بود كه توانست نشان دهد سیستم های ماكروسكپی، در اثر مرور زمان و صرف انرژی، آنتروپی خود را بیشینه می كنند و با محیط خارج خود به تعادل حرارتی می رسند (Boltzmann ,1877) . او مفهوم آنتروپی را به این ترتیب تعریف كرد:

که در آن Pi عبارت بود از بسامد پراكنش حالات سیستم در i حالت ممكن (به صورت تابع احتمالاتی )، و K برابر بود با ثابت بولتزمان . بنابراین تعریف ؛

که در آن برابر است با تعداد كل حالات ممكن برای سیستم .

تحلیلهای بعدی، نشان داد كه آنتروپی بیشینه، لزوماً تمام حالات تعادل حرارتی سیستم را تعیین نمی كند. راه نشان دادن این مطلب، این است كه تغییرات آنتروپی در سیستم های مجزا را پس از آمیخته شدنشان با هم بررسی كنیم . اگر دو سیستم مجزای دارای ساختار حرارتی (وابسته به آنتالپی ) كاملاً همگن را با هم یك كاسه كنیم، آنتروپی نهایی عبارت خواهد بود از:

اما اگر این همگنی در بین حالات ممكن برای دو سیستم وجود نداشته باشد، برابری یاد شده به این شكل تغییر می كند:

به بیان دیگر، این یك كاسه كردن سیستم ها نشان می دهد كه حالت تعادل اولیه برای هر دو سیستم، آنتروپی ای كمتر از بیشینه را معرفی می كرده، و این آنتروپی تعادلی نهایی در حالات طبیعی با ترفندهایی مانند یك كاسه كردن سیستم ها با هم، می تواند بیشتر شود. از همه این حرفها می توان این نتیجه را گرفت، كه با وجود درستی قانون دوم ترمودینامیك و صادق بودن اصل افزایش آنتروپی در سیستم های عادی، همراه با گذر زمان، این آنتروپی تعادلی لزوماً بیشینه ی ممكن را نشان نمی دهد. به بیان فنی تر، معادله ی تغییرات آنتروپی در طول زمان، در فضای فاز سیستم های گوناگون، پیش از رسیدن به بیشینه ی كلی چندین بیشینه ی موضعی را هم در بر می گیرد كه می تواند سیستم را در خود متوقف كند.

این نتایج همان چیزهایی بود كه پریگوژین را در رسیدن به تحلیلهایش از سیستمهای باز یاری كرد. او از لحاظ نظری كل سیستم های ترمودینامیك را به دو دسته تقسیم كرد:

نخست سیستم هایی كه آنتالپی، آنتروپی و عناصر تقارنی ثابت دارند و بنابراین دقیقاً از قانون دوم ترمودینامیك پیروی می كنند. این سیستم ها، همان سیستم های حرارتی كلاسیك و ساده هستند كه مورد علاقه ی فیزیكدانان حرارت اولیه بودند. در این سیستم ها آنتروپی در طول زمان افزایش می یابد و به بیشینه ای نزدیك به بیشینه ی كلی می رسد. در این سیستم ها بیشینه ی كلی فاصله ی چندانی با بیشینه ی های موضعی ندارد و محتوای حرارتی این دو نوع وضعیت خیلی به هم نزدیك هستند. این سامانه ها در طول زمان با روندی یكنواخت به سوی تعادل ترمودینامیكی با محیط حركت می كنند.

نوع دوم، سیستم های باز هستند كه دامنه تغییرات آنتالپی، تقارن و آنتروپی در آنها بسیار وسیع است . این سیستم ها به شكل پیچیده تری رفتار می كنند و پویایی شان در طول زمان توسط چندین نقطه تعادل موضعی متفاوت با بیشینه ی آنتروپی جذب می شود. ناگفته پیداست كه این نقاط تعادلی، و این آنتروپی های بیشینه ی موضعی، در واقع هم ارز با همان مفهوم جذب كننده هستند كه پیش از این معرفی شد. این سیستم ها هم بنابر قانون دوم در نهایت به سوی تعادل ترمودینامیك با محیطشان حركت می كنند، اما این راه را از مسیری پر پیچ و خم می پیمایند. مسیری كه می تواند منجر به تشكیل سازواره های پیچیده ی خاصی شود و به طور موقت در جاهایی اطلاعات و نگانتروپی را افزایش دهد (Pregogine ,1980).

بر اساس این تحلیل جدید، می توان دو نوع آنتروپی را در سیستم تعریف كرد. نخست آنتروپی برونی،كه توسط رابطه ی كل سیستم با محیط تعریف می شود، و دوم آنتروپی درونی كه با توجه به روابط درونی بین اجزای سیستم پدید می‌آید. اگر تغییرات اولی را با des و دومی را با dis نشان دهیم تغیرات کل آنتروپی سیستم برابر خواهد شد با ds= dis + des

حالا با توجه به ثابت بودن بیشینه ی آنتروپی كل ، اگر در این چهارچوب، مقدار آنتروپی برونی افزایش یابد، آنتروپی درونی كم می شود. یعنی اگر سیستم در اندركنش با محیط خود، مقدار بیشتری آنتروپی به آن صادر كند، موفق خواهد شد تا اطلاعات و پیچیدگی درون سیستم خود را با كاستن از آنتروپی درونی خود، افزایش دهد. این داد و ستد بی نظمی، -یا برعكس آن، اطلاعات – همان است كه امكان بالا رفتن پیچیدگی سیستم های باز در طول زمان را فراهم می آورد.

۲-۲-۲) مفاهیم نظریه اطلاعات

۱-۲-۲-۲) تعریف اطلاعات

در مورد اطلاعات، بسیار سخن گفته شده و بسیار هم گفته خواهد شد. در اینجا هدف تنها رسیدن به مفهومی كمی و شمارش پذیر از اطلاعات است . برای نیل به این مقصود، روشهای معمول و معتبر پرداختن به این موضوع را به طور گذرا ذكر خواهم كرد و در نهایت صورتبندی مورد علاقه ی خود را ذكر خواهم كرد. علاقمندان به نكات بیشتر در مورد محتوای اطلاعاتی سیستم زنده، می توانند به منابع دیگری كه در این مورد نگاشته شده رجوع كنند.

نخستین كسی كه در اروپا ایده ی امكان كمی كردن اطلاعات را مطرح كرد، یك فیزیكدان به نسبت گمنام بود به نام نیكیست ، كه در دهه ی بیست قرن حاضر میلادی مقاله ای در این مورد منتشر كرد. بنابر نظر او، در ارتعاشات صوتی، رابطه ای بین تنوع طول موج و دامنه بسامد ارتعاشات، و چگالی اطلاعات منتقل شده توسط آن صوت وجود داشت . او همچنین مفهوم نوفه را هم معرفی كرده بود و آن را نیز به همین ترتیب بر اساس خصوصیات صوت تعریف كرده بود. اندیشه های پیشروی این دانشمند در دوران خودش چندان مورد توجه واقع نشد. پس از او، یكی از پیشروان اندیشه ی سیستمی به نام هارتلی ، در سال 1928.م حجم اطلاعات را بر اساس تنوع حالات قابل تشخیص در سیستم تعریف كرد. به نظر او، اطلاعات را می شد با این معادله كمی كرد:

كه در آن عبارت است از مقدار اطلاعات بر حسب بیت، و M برابر است با تعداد حالات قابل تشخیص در سیستم .

با وجود دقیق تر بودن این تعبیر از اطلاعات، هارتلی هم توجه چندانی را به خود جلب نكرد، و این موضوع همچنان مكتوم ماند، تا اینكه در سال1948.م، ریاضیدانی فرانسوی به نام كلود شانون ، نظریه اطلاعات را بنیان نهاد. شانون دانشمندی در خدمت كمپانی مخابراتی بل بود و می كوشید تا شیوه ی كدگذاری اطلاعات در قالب نمادهایی مانند تكانه های الكتریكی را بهینه كند. او با الهام از مفاهیم ترمودینامیك، تعریف زیر را از اطلاعات ارائه كرد:

كه در آن xi یك حالت متمایز از سیستم مورد بررسی است، و P(xi) احتمال حضور آن است . H(x) هم كل اطلاعاتی است كه در این سیستم منتقل می شود.

پیشنهادات شانون در دوره ی خودش با استقبال فراوانی روبرو شد، و یكی از مهمترین علل اقبال فراوان به این تعریف، این بود كه می توانست مشكلات عملكردی در زمینه ی انتقال اطلاعات را حل كند و در اقتصادی تر كردن سیستم های اطلاعاتی -و به ویژه مخابراتی – سودمند باشد. این امر در واقع پاسخی بود پیش از موعد، به نیاز مبرم تكنولوژی، كه به تدریج اطلاعات را در ابعاد وسیع به كار می گرفت . با وجود اینكه شانون در نظریه ِ خود تعریفی برای اطلاعات ارائه كرده بود، ولی از آن هنگام تا به حال بین نظریه پردازان در مورد دقت و صحت این تعریف، اختلاف نظر وجود دارد.

امروزه، می دانیم كه تعبیر شانون از اطلاعات چندان هم واقع بینانه نبوده، و در واقع صورتبندی او، بیش از آنكه به خود مفهوم اطلاعات بپردازد، انتقال اطلاعات را مورد توجه قرار داده بود. در واقع او به جای ایجاد نظریه اطلاعات ِ مورد ادعایش، یك نظریه مخابرات را پدید آورده بود. به این شكل، اطلاعات یكی از معدود مفاهیمی است كه در تاریخ علم، پیش از تعریف شدن دقیق، كمی شده است . كمّی كردن مفاهیم و تحلیل ریاضی آنها، به درك عمیقی از مفهومشان وابسته است، و بنابراین معمولاً تعریف قبل از تحلیل مشخص می شود. در بعضی موارد، این اصل نقض می شود و مفاهیمی مبهم، به دلیل اهمیت كاربردیشان، زودتر از موعد شمارش پذیر می شوند. اطلاعات هم نمونه ای از این مفاهیم بوده است .

برای مقصودی كه ما داریم، نظریه مخابرات كافی نیست . ما در اینجا به دنبال راهی برای كمی كردن مفهوم اطلاعات محض -فارغ از كاربردهای احتمالی آن – می گردیم . برای ایجاد چنین نظریه ای، به این ملزومات نیاز داریم :

الف ) نسبیت اطلاعات : اطلاعات در معنای عام خود، چیزی است كه از فرستنده ای به صورت كدهایی قراردادی گسیل می شود و توسط گیرنده ی ویژه ای كدگشایی می گردد. به این ترتیب كمیت اطلاعات به نوع و بازده كاری فرستنده و گیرنده، و همچنین قرارداد خاصی كه كدگذاری اطلاعات را تعیین می كند، بستگی دارد. به این ترتیب مفهوم كمی اطلاعات، نسبی و قراردادی است .

ب ) اطلاعات منفی : این مفهومی است كه توسط بریلوِن معرفی شده، و به لزوم توجه به اطلاعات نادرست مخدوش كننده ی پیام اشاره دارد. اگر در پیامی، زیرمجموعه ای از اطلاعات وجود داشته باشد كه در مورد صحت و سقم و درجه ی اعتبار باقی پیام چیزی به ما بگوید، آن بخش دارای اطلاعات منفی خواهد بود، چون در نهایت شك و تردید ما را نسبت به مفهوم كل پیام بیشتر می كند (Brillouin,1956).

پ ) اطلاعات سیستم های پیوسته : مفاهیم اولیه ی اطلاعات همه در مورد سیستم های گسسته ای مانند زبان یا كدهای تلگرافی (مثل مورس ) كاردبرد داشت . اما ما در كنار این دستگاه كمی، نیازمند صورتبندی دیگری هم هستیم كه اطلاعات مربوط به ریخت و ساختار و سایر مفاهیم غیرنمادین و پیوسته ی وابسته به سیستم را نیز كمی كند. به این ترتیب ایجاد دو نوع نظریه اطلاعات لزوم پیدا می كند. نوعی كه به مفاهیم -یا به اصطلاح فنی تر آنتروپی – گسسته بپردازد، و نوع دیگری كه با آنتروپی پیوسته كار كند.

از آنجا كه سیستم های زیستی همه حالتی پیوسته دارند، چنین رویكردی به مفهوم اطلاعات ضروری جلوه می كند.

با توجه به سه معیار بالا، راه های زیادی برای تعریف اطلاعات وجود دارد. یك راه كاركردگرایانه، پرداختن به مفهوم تازگی و شباهت در رفتارهای سیستم است . این راهی است كه وایتساكر پیشنهاد كرده و برای نامیدن اطلاعات خاصی كه به این ترتیب تعریف می شود، عبارت اطلاعات كاركردی را به كار برده است .

تازگی[1] در سیستم قابل تعریف است كه بر مبنای آن، هرچه پویایی كنونی سیستم با آنچه كه تا به حال تجربه كرده تفاوت داشته باشد، تازگیش بیشتر است . می توان شاخص تازگی را بر اساس درصد بیان كرد و تفاوت بین حالت كنونی و گذشته را به طور آماری استخراج كرد. به طور موازی، می توان مفهوم دیگری به نام شباهت را هم درك كرد، كه عبارت است از برعكس تازگی . یعنی درصد شباهت حالت كنونی سیستم، و آنچه كه در گذشته تجربه كرده است . به این ترتیب می توانیم بر روی یك محور مختصات ساده، تغییرات تازگی سیستم در طول زمان را تصویر كنیم . حالا اگر محور دیگری را هم بر همین دستگاه در نظر بگیریم و آن را معرف اطلاعات فرض كنیم، می بینیم كه اطلاعات در حد فاصل شباهت كامل، و تازگی كامل قرار دارد. اگر تازگی سیستم 100 % باشد، در واقع آشوب كامل حكمفرما خواهد بود و هرلحظه پویایی سیستم از نوتعریف می شود و قابل پیش بینی نیست . در این سیستم های هیچ اطلاعاتی وجود ندارد. چون در واقع اطلاعات این سیستم ها را نمی توان خواند. چنین چیزی را در سیستم های آشوبناكی مانند پدیده های آب و هوایی تا حدودی می توانیم ببینیم . اگر شباهت در یك سیستم 100% باشد، باز هم اطلاعاتی وجود نخواهد داشت . چون در این حالت پویایی در سیستم مشاهده نخواهد شد و هر لحظه از سیستم درست مانند لحظه ی قبل خواهد بود. چنین چیزی هم ارز است با مفهوم مرگ ترمودینامیكی در سیستم های بسته .

اما اطلاعات عملكردی، آمیزه ای از این دو مفهوم است . هم تازگی دارد، و هم شباهت، و در واقع همین شباهت است كه امكان تشخیص انحرافات از حالت پایه و بنابراین خواندن اطلاعات را ممكن می سازد. در جاهایی در حد فاصل تازگی و شباهت كامل، سیستم بین رفتار مشابه یا تازه نوسان می كند، و این همان است كه اطلاعات عملكردی را تولید می كند. به این ترتیب، اطلاعات مفهومی است كه در حد فاصل بین تازگی مطلق و شباهت كامل تعریف می شود. برای كمی كردن این مفهوم بینابینی، چنان كه گفتیم، تعاریف فراوانی وجود دارد. همین زیاد بودن تعاریف، یكی از دلایل نادقیق بودن مفهوم آن است .من در اینجا بعضی از این تعاریف را فهرست وار ذكر می كنم تا زمینه ِ موضوع مشخص شود.

خود شانون اطلاعات را به صورت معنایی نزدیك به آنتروپی تعریف می كند و حتی در محاسبات خود، از معادلات مربوط به آنتروپی -برگرفته از قانون دوم ترمودینامیك – بهره می برد. بنابراین تعریف، اطلاعات یك گزاره عبارت است از پیچیدگی روابط موجود بین اجزای آن . اگر یك مجموعه از احتمالات گسستة مكمل یكدیگر را -مانند (p1,p2,…pn)- داشته باشیم، و این مجموعه از احتمالات، حالت یك سیستم را مشخص كنند، آنگاه اطلاعات این سیستم برابر خواهد بود با بیتهایی كه برای تعریف یكی از این حالات -كه سیستم را معرفی می كند،- لازم است . یعنی اگر P عبارت باشد از كل احتمالات ممكن در مورد یك سیستم، و:

P= {p1, p2,…., pn}

آنگاه اطلاعات موجود در سیستم H(p)- بر حسب بیت – برابر خواهد بود با:

H (p) = Pi log (pi)

چنانكه می بینید، این معادله با برابری مربوط به آنتروپی در ترمودینامیك كلاسیك همریخت است . شاید همین همریختی معادلات، منشأ اصلی اشتباه شانون در همتا گرفتن این دو مفهوم بوده باشد. درصورتی كه چنین همتایی را بپذیریم،به این نتیجه می رسیم كه یك سیستم، در حالتی كه احتمال بروز همه ِ حالاتش با هم برابر باشد، دارای بیشینه ِ اطلاعات ممكن است . یعنی در صورتی كه قاعده ِ برابری امکانات برقرار باشد: p1= p2=… =pn

آنگاه آنتروپی بیشینه خواهد شد، چون بی نظمی سیستم در بالاترین درجه ِ خود خواهد بود. در عین حال، بر اساس معادله شانون خود اطلاعات و هم بیشینه خواهد بود و این موردی است كه با بیشینه بودن بی نظمی همخوانی ندارد.

حشو، مفهوم مهم دیگری است كه همواره در نظریه اطلاعات در كنار خود مفهوم اطلاعات مطرح می شود. حشو به این معناست كه یك پیام به طور خالص از نمادهای معنی دار و حاوی ارزش اطلاعاتی تشكیل نشده، بلكه برخی از اجزای آن حالت نوفه دارد و در انتقال اطلاعات نقشی را ایفا نمی كند. وجود این عناصر اضافی، از یكسو به طول پیام می افزاید، بی آنكه ارزش اطلاعاتی آن را زیاد كند، و از سوی دیگر احتمال خطا در فرآیند رمزگشایی را كاهش می دهد. مثلاً مجسم كنید معنایی مثل یك تاریخ، مثلاً1377 می خواهد منتقل شود. می توان این مفهوم را با چهار علامت عددی بیان كرد. در صورت اختلال در انتقال این پیام كوتاه، مفهوم در كل آسیب زیادی می بیند. مثلاً اگر یك علامت 3 به 6تبدیل شود، كل پیام تغییر می یابد و به صورت 1677 قلب می شود. در مقابل می توان همین پیام را به صورت “هزار و سیصد و هفتاد و هفت ” هم نوشت، در این حالت، به جای چهار علامت عددی، 21 نماد الفبایی مورد استفاده قرار گرفته . یعنی طول پیام بدون تغییر در معنا زیاد شده، ولی در مقابل مصونیت پیام در مقابل تغییرات هم بالا رفته است، و دیگر تغییر یك حرف (مثلاً ص به م ) كل پیام را دگرگون نمی كند. یعنی گیرنده به احتمال زیاد خواهد توانست معنای درست “هزار و سیمد و هفتاد و هفت ” را دریابد. وجود نوفه چگالی اطلاعات بر نماد را در پیام كم می كند و چون در فن مخابرات فرستادن هر نماد با صرف انرژی همراه است، بهترین پیام، كم حشوترین پیغام محسوب می شود.

با توجه به اینكه شانون برای شركتهای بزرگ مخابراتی كار می كرده و تمركز كارش بر پیامهای كدبندی شده ِ انسانی بوده، می توان دید كه تعریف مورد نظر او برای بسیاری از سیستم های دیگر قابل تعمیم نیست . مثلاً نمی توان تعاریف مورد نظر او را در مورد سیستم های غیرگزاره ای به كار برد. در این سیستم ها، آشكار است كه وجود اطلاعات هم ارز كم شدن بی نظمی و بهم خوردن تعادل بین احتمالات است . ایرادی كه ذكر شد، به تعریف شانون از حشو هم وارد است . در اینجا هم حشو از همین تعریف نادرست اطلاعات ناشی می شود. بنابر نظر شانون، اگر برابری امكانات در یك سیستم به هم بخورد، یعنی اگر برابری بین امكانات مختلف موجود برای حالت سیستم نقض شود، حشو زاده می شود. وجود حشو به زعم شانون باعث كاهش اطلاعات مفید در سیستم می شود. بر مبنای همین تعاریف، آزمایشها و سنجشهای فراوانی در مورد سیستم های مشهور كدگذاری پیامها انجام شده، و مثلاً در این میان ساختارهای زبانی طبیعی هم زیاد مورد بررسی قرار گرفته اند.

پس از بنیانگذاری نظریه اطلاعات (Shanon & Weaver ,1949)، بسیاری از دانشمندان دیگر كوشیدند تا این تعاریف و معادلات را اصلاح كنند و آن را به صورت ابزاری كارآمد برای تحلیلی سیستم های پیچیده درآورند. شانون در تئوری اولیة خود، اطلاعات را تنها به دستوربندی جملات و گزاره ها مربوط كرده بود و همین امر یكی از مهمترین ایرادات كار او را تشكیل می داد. چرا كه در یكی از برداشتهایی كه از این صورتبندی اطلاعات انجام می شد، دو جمله، -یكی با معنا و دیگری بی معنا- كه طول یكسانی داشتند، دارای محتوای اطلاعاتی یكسانی در نظر گرفته می شدند. برای رفع این مشكل، محققان بعدی سطوحی را برای اطلاعات تعریف كردند. سطح ابتدایی را كه همان سطح دستوری بود، مربوط به روابط بین اجزای حمله (مانند واژگان ) دانستند، و سطح بعدی را سطح معنایی نامیدند كه به ساختار معنایی ناشی از اجزای جمله مربوط می شد. بعدها سطح دیگری هم به این دو افزوده شد و آن هم سطح كاربردی بود كه تنها به اثر پیام بر گیرنده وابسته بود. هرچه اثر دگرگون كنندگی پیام بر رفتار گیرنده یا فرستنده بیشتر باشد، اطلاعات این سطح هم بیشتر خواهد بود. وایتساكر كه یكی از پیشگامان نظریه اطلاعات است، مفهوم مورد نظر ما را به این ترتیب تعریف می كند: “هرچیزی كه فهمیده شود، اطلاعات است ” .

او به این ترتیب اطلاعات را در سیستمی متشكل از گیرنده و فرستنده تعریف می كند، و مفهوم اطلاعات در خلاء را غیرقابل قبول می داند. همچنین رفتارشناس بزرگی مانند ویلسون هم به همین ترتیب اطلاعات را تعریف می كند. او اطلاعات را با مفهوم ارتباط پیوسته می داند، و اطلاعات (پیام ) را چیزی می داند كه از فرستنده ای به گیرنده ای منتقل می شود و الگوی احتمالاتی رفتار آن را به شكلی دگرگون می كند. البته خود او به ایرادات و موارد نقض این تعریف اشاره دارد، ولی برای كاربردهای خاص مورد نظر خود، آن را مناسب می بیند (Wilson ,1995) 9.

بریلون ، بر مفهوم شانونی اطلاعات انتقادات بسیاری وارد كرده و آن را فاقد مصداق فیزیكی و خارجی می داند. بنابر نظر او، تعریف سنتی از اطلاعات، تفاوتی در میان حالات رفتاری خرد و كلان عناصر سازنده ِ یك سیستم قائل نمی شوند. این تمایز، در تحلیل هم افزایی بسیار كاربرد دارد. با توجه به ایراداتی كه این پژوهشگر بر شانون وارد كرده، باید مفهوم اطلاعات شانونی را همتای معكوس اطلاعات فیزیكی دانست . چون با بی نظمی (آنتروپی ) رابطه ِ مستقیم دارد. اشخاص دیگری مانند كولیه كوشیده اند تا اطلاعات را بر اساس نظم موجود در ساختار سیستم های فیزیكی تعریف كنند. بر این اساس، اطلاعات برابر خواهد بود با بیتهای لازم برای تعریف چینش آرایه های خاص سازنده ِ یك سیستم (Collier et al ,1986,1988).

بر این مبنا، آنتروپی و اطلاعات معانی متضادی با هم پیدا خواهند كرد. یكی دیگر از افرادی كه كوشیده اند تا اطلاعات را بر اساس ساختار درونی و فیزیكی سیستم ها تعریف كنند، بروكس است، كه با همكاری وایلی كتابی زیبا نوشته و اطلاعات را در سیستم های پیچیده ِ فیزیكی براساس ساختار درونی سیستم و سلسله مراتب كاركردی آن تعریف كرده است (Wiley & Brooks ,1988) .

چنانكه دیدید، تعریف مشترك مورد قبول همة دانشمندان برای اطلاعات وجود ندارد. با وجود عدم توافق در مورد صورتبندی بهینه ی بیان كننده ی مفهوم اطلاعات، و به وجود ابهام و اختلاف نظری كه در این مورد وجود دارد، آنگاه كه پای مسائل كاربردی و عملكردی به میان كشیده می شود، راهكارهایی مشابه و جا افتاده برای تخمین اطلاعات یك سیستم به چشم می خورد. در ادامه ی این بحث، برای این كه اثر سردرگم كننده ی اختلاف نظرهای مذكور رفع شود، به چند مثال خواهم پرداخت و محتوای اطلاعاتی چندین سیستم نمادی و زیستی را محاسبه خواهم كرد.

۲-۲-۲-۲) اطلاعات در سیستم های زنده

تا حدود معینی، سازمان زیستی و سیستم روانی چیز واحدی هستند. (پیاژه)

زندگی سیستم سلسله مراتبی پردازشگر اطلاعاتی است كه در طول تكامل توانایی ذخیره و باززایی اطلاعات ساختاری خود را به دست آورده است .( Gatlin ,1972) اطلاعات، از نظر محاسباتی، عبارتست از تعداد بیت هایی كه برای بیان وضعیت دقیق یك پیام لازم است . اگر یك مفهوم اطلاعاتی چندین حالت داشته باشد، تعداد عناصر مجموعه ای از صفر و یك ها كه لازم است تا یكی از این حالات از بقیه متمایز شود، اطلاعات مربوط به آن حالت است . از روی مثال هایی كه ذكر شد، به سادگی می توان معادله ای را پیش بینی كرد كه مقدار اطلاعات را بر حسب بیت به دست دهد. این معادله عبارت است از:

H= Pi logn Pi

كه در آن Pi برابر است با احتمال ظهور هریك از n نماد موجود در پیام . به عنوان مثال هایی دیگر در این مورد، می توان به كد ژنتیكی موجودات زنده اشاره كرد. می دانیم كه یك رمز ژنتیكی از توالی خطی اسیدهای نوكلئیكی تشكیل یافته كه تنها چهار نوع باز آلی را می توانند شامل شوند. به این ترتیب محتوای اطلاعاتی هر واحد كد ژنتیكی برابر می شود با (بیت بر نماد) 2=4 2log. (در اینجا هر نماد عبارت است از یك اسید نوكلئیك .) با توجه به این اندازه گیری، می توان حجم اطلاعاتی نهفته در ژنوم گونه هایی را كه مقدار مواد وراثتی شان معلوم است، اندازه گرفت . مثلاً ژنوم ویروس كوچك SV40 (نوعی ویروس میمونهای Simian )، تنها از پنج هزار جفت باز آلی تشكیل شده . بیان دیگر، حجم اسید نوكلئیك موجود در این ویروس برابر kbp 5 (تقریباً معادل 12 10*3 دالتون ) می باشد (واتسون ,1374) . با توجه به این كه هر جفت باز آلی دارای 2 بیت اطلاعات می باشند، حجم كلی اطلاعات نهفته در ژنوم این ویروس 10000 (=2*5000 ) بیت خواهد بود. یا مثلاً بزرگی ژنوم كُلی باسیل (Escherechia coli ) كه مقیم روده ِ بزرگ همه ِ ما آدمهاست، است kbp 4000 (واتسون ,1374). یعنی محتوای اطلاعاتی اش برابر است با 6 10*8
(=2*6 10*4) بیت این باكتری یاد شده، دارای چهار هزار ژن است و كل DNA اش در حالت كشیده یك میلیمتر طول دارد. حالا آن را با ژنوم انسان مقایسه كنید كه دارای صد هزار ژن است و در حالت كشیده 173 سانتی متر طول دارد (گالین , 1372). آشكار است كه با پیچیده تر شدن سیستم زنده، محتوای اطلاعاتی نهفته در ژنوم آن نیز افزایش می یابد.

می توان همین مثال را در یك سطح بالاتر و در حد اسیدهای آمینه و پروتئین ها تكرار كرد. می دانیم كه در كل 20 نوع اسید آمینه ِ اصلی داریم كه بیش از95% از ساختار پروتئین ها را می سازند. رفتار یك ماكرومولكول پروتئینی توسط توالی و تعداد این اسیدهای آمینه تعیین می شود. هر پروتئین هم مستقل از شكل فضای خاص خود كه مربوط به نیروهای فیزیكوشیمیایی ویژه ِ اجزایش است، می تواند به صورت یك توالی خطی از اسدهای آمینه نمایش داده شود. ما ژنوم را جمله ای در نظر گرفتیم با طول های متفاوت وابسته به پیچیدگی گونه، كه با الفبایی چهار حرفی نوشته شده است . به همین ترتیب می توانیم پروتئین ها را هم جملاتی مشابه بدانیم كه با بیست حرف نوشته شده اند. با چنین فرضی، محتوای اطلاعاتی هر اسید آمینه تقریباً برابر با 2/ 4(=20 2log) ) بیت خواهد بود.

حالا به این مثال دقت كنید:

مولكول هموگلوبین انسان، از چهار رشته ِ پلی پپتیدی تشكیل شده است . این چهار رشته، عبارتند از دو رشته ِ آلفا و دو رشته ِ بتا. هر رشته ِ آلفا، از 141 اسید آمینه تشكیل شده . یعنی محتوای اطلاعاتی آن عبارت است از 2/592(=2/4*141) بیت . این رشته ِ پلی پپتیدی توسط قطعه ای از ژنوم كد می شود كه 643 جفت باز دارد. (هر اسید آمینه توسط سه جفت باز كد می شود و این ژن خاص دارای دو اینترون به طول 95 و 125 جفت باز هم هست.(Tamarine ,1993).

به این ترتیب مقدار اطلاعات نهفته در ژن رشته ِ آلفا برابر است با 1286(=2*643) ) بیت . یعنی محتوای اطلاعاتی ژن كنندة رشتة آلفا، چیزی در حدود دو برابر اطلاعات نهفته در خود آن رشته است .

این زیاد بودن محتوای اطلاعاتی ژنوم نسبت به محصولات پروتئینی، دو جنبه دارد. یكی مربوط به خود اینترون هاست، كه در فرآیند ترجمه و كدبندی كردن پروتئین ها شركت نمی كنند. دیگری مربوط می شود به این حقیقت كه هر اسید آمینه توسط سه اسید نوكلئیك كد می شود. علت مورد نخست معلوم نیست و وجود این همه بازآلی بی فایده در ژنوم یوكاریوت ها هنوز از معماهای ژنتیك است . اما مورد دوم قابل پاسخگویی است . این زیاد بودن محتوای ژنومی نسبت به نتایج پروتئینی، در اصل نوعی حشو است . این نوع از حشو، به ویژه در جاهایی كه قرار است اطلاعات از چند سیستم نمادین مختلف بگذرند و چندبار ترجمه شوند، نقشی حیاتی را بر عهده دارد و آن هم جلوگیری از قلب شدن پیام و ایجاد خطاست . می بینیم كه مكانیسم های تكاملی چنین حشوی را در ژنوم موجودات به خوبی جاسازی كرده اند. نمود دیگر این حشو، زیاد بودن تعداد نسخه های ژنهای مربوط به پروتئین های حیاتی است . گروهی از ژنها در یاخته ها شناسایی شده اند كه در سطح ژنوم مرتباً تكرار می شوند. این ژنها كه ژنهای با توالی متوسط خوانده می شوند، می توانند در كل 5^10 تا 3^10بار تكرار شوند. مثلاً برخی از ژنهای ساختمانی مهم مانند ژن هیستون ها، rRNA، و tRNA از این گروه محسوب می شوند. به دلیل همین فراوانی حشو در سطح ژنوم است كه می بینیم در هر روند همانندسازی، احتمال بروز خطا تنها 7-10-11-10 است (واتسون,1374) .

یكی از بنیانگذاران روش كاربرد از مفاهیم سیستمی و اطلاعاتی در زیست شناسی، دانشمند فرانسوی ژاك مونو است كه توانست همین بیشتر بودن اطلاعات ساختاری یك پروتئین از اطلاعات ژنومی آن را نشان دهد. این گزاره در دید نخست نوعی باطلنما به نظر می رسد، چون در سیبرنتیك اصلی مشهور داریم كه از روشهای ریاضی قابل اثبات است و بر اساس آن پدید آمدن سیستمی منظم تر از سیستم مادر ناممكن است . این باطلنما، در مدت كوتاهی به خیالپردازان فرصت داد تا دیدگاه هایی جالب را پیشنهاد كنند. مثلاً فردی به نام السازر عقیده داشت كه این افزایش اطلاعات از سطح ژنومی به پروتئینی، خاستگاهی غیرمادی و فراطبیعی دارد و این پدیده را “غنی شدن غیرعلی ” اطلاعات نامید. خوشبختانه پژوهشگران به این نوع توضیحات بسنده نكردند و در نهایت توضیحاتی دقیقتر از محتوای اطلاعاتی ژنومی به دست آمد. براساس این بیانهای تازه از باطلنمای مزبور، اطلاعات هر سیستم معنادار تنها در محیط ویژه ای كه قابلیت “خواندن ” آن را داشته باشد معنا دارد. و این زمینه هم خود دارای اطلاعاتی است كه برای درك -یا خوانده شدن – اطلاعات سیستم مرجع ضروری هستند. به این ترتیب حجم اطلاعات درونی ساختار ژنوم، آنگاه كه با اطلاعات پیرامونیش (اطلاعات نهفته در آنزیمهای عملگر بر آن ) با هم در نظر گرفته شود، به شكل مطلوبی از اطلاعات پروتئین های حاصل شده بیشتر خواهند بود. به همین ترتیب اطلاعات نهفته در خود ساختار پروتئین از ژنومش بیشتر نیست، كه این مجموع اطلاعات پروتئین و محیط مناسب برای بیان رفتارش است كه باطلنمای مزبور را ایجاد می كند.

این یكی از مواردی بود كه كلی نگری به پدیده های زیستی با پشتیبانی روشهای كمی، بر نگرشهای جزءانگارانه ی گذشته برتری می یافت .

در ژنوم مهره داران حالتی دیگر از حشو دیده می شود. در این موجودات، احتمال اینكه یك باز آلی كه به طور كاتوره ای انتخاب شده، گوانین یا سیتوزین باشد،44-40% است . یعنی احتمال حضور این دو باز در ژنوم برابر است با 2+-42%. كه نیمی از آن مربوط به گوانین و نیم دیگر مربوط به سیتوزین است. همبستگی بین احتمال حضور این دو باز نوعی حشو در ژنوم مهره داران ایجاد می كند. از آنجا كه بیشینه حشو ژنومی موجود در مهره داران كمتر از بیشینه مقدار مشابه در میان بی مهرگان است، می توان به زبان نظریه بازی ها، استراتژی مهره داران را در طول مسیر تكاملیشان به این شكل بیان كرد: ).MinMax D(Max یعنی این جانوران بالاترین مقدار حشو ژنومی خود را كمینه كرده اند و به این ترتیب محتوای اطلاعاتی ژنوم خود را زیاد كرده اند. مطالعات كورنبرگ نشان داده است كه در مورد كمینه مقدار حشو ژنومی وضعیت برعكس است و كمینه حشو ژنومی در میان مهره داران از كمیت مشابه در بی مهرگان بیشتراست . در این مورد می توان استراتژی را به صورت MinMax D(Min) نشان داد. یعنی بیشینه كردن كمینه حشو. نمونه های متعددی از حشو در ژنوم موجودات زنده كشف شده است كه نمونه بارز آن توالی های تكراری ( موجود در انتهای كروموزوم ها (Tellomer) است . حتی در موجوداتی به سادگی ویروس ها هم این توالی ها دیده می شوند. مثلاً در ویروس موزاییك توتون (TMV) این توالی به صورت تكراری دیده می شود: A-GAA-GAA-GUU-GUU ناگفته پیداست كه توالی های حشوی ژنی نقش عملكردی ندارند و هیچ mRNA و پروتئین خاصی را كد نمی كنند .

در مورد حشو، مثالهای دیگری هم می توان زد. مثلاً در زمینه ِ زبانشناسی در این مورد زیاد كار شده . در اینجا فقط به سه نمونه از این موارد اشاره می كنم :

الف ) الفبای فارسی در كل 84 نماد دارد. (مشتمل بر حروف بزرگ و كوچك و میانه و علایمنقطه گذاری .) اگر بخواهیم از میان این مجموعه 84 عضوی یكی را انتخاب كنیم، باید به اندازه 5/6=84 2log بیت اطلاعات صرف كنیم . به بیان دیگر در زبان فارسی، محتوای اطلاعاتی هر نماد 5/6 بیت است . (چون بیت مفهومی دودویی است، در محاسبات نمی توان مقدار اعشاری به آن نسبت داد. بنابراین در محاسبات این مقدار را معمولاً برابر با 7 بیت می گیرند.) به همین ترتیب در زبان انگلیسی، می توان 64 نماد الفبایی را تشخیص داد، كه با log2 64=6 بیت برابر است . یعنی محتوای اطلاعاتی هر نماد زبانی در فارسی حدوداً یك بیت از همتای انگلیسی خود بیشتر است .

ب ) اگر فقط به حروف بزرگ در زبان انگلیسی توجه كنیم، خواهیم دید كه تنها 27 نماد در آن وجود دارد. محتوای اطلاعاتی هر نماد باید بر اساس فرمولی كه گفتیم برابر با 7/4 بیت بر نماد باشد، ولی از آنجا كه در زبان انگلیسی 58% حشو وجود دارد، محتوای اطلاعاتی واقعی هر نماد تنها 2 بیت است . معنای این كه گفتیم 58% زبان انگلیسی حشو است، این است كه این نسبت از سؤالات با پاسخ های دودویی را می توان برای درك یك پیام حذف كرد. به بیان دیگر، اگر دریك نامه به زبان انگلیسی 58% حروف حذف شوند، هنوز هم می توان به مضمون نامه پی برد.

پ ) در بررسی هایی كه برروی كتاب های درسی در مدارس آمریكا انجام گرفته، این نتیجه جالب حاصل شده كه با بالا رفتن كلاس، مقدار حشو در متن درسی كمتر می شود. یعنی به نظر می رسد كه كودك با افزایش سن و مهارت های مطالعاتی، می تواند پیام هایی را با محتوای اطلاعاتی بیشتر جذب و درك كند. در كتاب كلاس اول، حشو برابر41% بود که با 9/1 بیت به ازای هرنماد برابر است . در كلاس آخر این مقدار به 30% می رسید، كه برابر است با1/4 بیت برای هر نماد (Gatlin et al,1972) .

با توجه به این مثالها، فكر می كنم معنای اطلاعات كمی شده جا افتاده باشد. حالا وقت آن است كه پویایی اطلاعات در درون سیستم های زنده، و اندركنش رفتارهای اطلاعاتی را در محیطهای طبیعی مورد اشاره قرار دهیم .
همه پیام هایی كه به عنوان اطلاعات حسی به موجود زنده می رسند، قبلاً از یك فرستنده گسیل شده اند. این فرستنده می تواند موجود زنده ی دیگری باشد، و یا تنها از عوامل بیجان محیطی تشكیل یافته باشد. در صورت نخست، پیام را با همین عنوان رایج، پیام می نامیم، و در حالت دوم آن را برگه می خوانیم (Seeley et al ,1989) . در هردو حالت، اطلاعات باید از فرستنده به گیرنده منتقل شوند. این فرآیند انتقال همیشه از میان زمینه ای انجام می گیرد كه بسته به محیط زیست موجود، می تواند هوا، آب، و یا خاك باشد. در هرسه حالت، وجود عوامل فیزیكی در زمینه می تواند بر روند انتقال اطلاعات اثر گذارد و نوفه ایجاد كند. نوفه، از عواملی است كه باعث تغییر پیام و كاهش دقت آن می‌شود.

انتقال اطلاعات بین دو موجود زنده را ارتباط هم می نامند. گروهی از پژوهشگران این اصطلاح را تنها برای مواردی به كار می برند كه فرستنده به عمد پیام را ارسال كند. ارتباطات را براساس اینكه (از نظر توانایی سازش با محیط) برای گیرنده سودمند باشند یا نباشد، و فرستندة آن در گسیل آن عمد داشته باشد یا نداشته باشد، به چهار دسته تقسیم می كنند. در حالتی كه پیام برای گیرنده ارزش سازشی داشته باشد، و فرستنده هم آن را عمداً ایجاد كرده باشد، ارتباط وجود دارد. در حالتی كه پیام برای گیرنده نقش ضدسازشی داشته باشد، (یعنی سازگاریش را با محیط كمتر كند،) و فرستنده آن را عمدا بفرستد، آن پیام را فریب می نامند (مثل دروغ در آدمیان، و پدیده تقلید در جانوران ). اگر فرستنده به طور غیر عمد پیام را بفرستد، و پیام ارزش سازشی داشته باشد، آن را انتقال تصادفی می گویند (مثل دیده شدن شكار توسط شكارچی ). اگر فرستنده غیرعمد پیام دهد و ارزش سازشی پیام هم برای گیرنده منفی باشد، آن را خطای درك می خوانند (مثل خطاهای حسی معمولی ).

می توان به ازای هر موجود، و دستگاه های حسی ای كه دارد، یك فضای فاز تعریف كرد، كه تعداد ابعادش برابر باشد با تعداد انواع حواس . یعنی می توان برای هر موجود زنده ای، دستگاه مختصاتی را در نظر گرفت كه دارای N محور باشد. اگر هریك از این محورها، نمایانگر یكی از كیفیت های حسی باشد، می توان به صورت نمادین درك موجود را در آن زمینه -در هر مقطع زمانی،- به صورت مجموعه نقاطی بر آن محور نمایش داد. به این ترتیب ما فضایی N بعدی خواهیم داشت كه می تواند همه دریافته های اطلاعاتی موجود از محیط را بازنمایی كند. این فضا را در اینجا فضای فاز حسی خواهم نامید. این كار، یعنی فرض محور مختصات برای حواس را می توان در مورد یك حس خاص هم انجام داد، و مثلاً در دستگاه بینایی انسان فعالیت هریك از چهار نوع گیرنده نور شبكیه (سه نوع مخروط و یك استوانه ) را بر یك محور تصویر كرد و از متصل كردن این محورها به هم، یك فضای فاز بینایی ایجاد كرد. به این ترتیب اگر برای حس خاصی Nr نوع گیرنده وجود داشته باشد، و هر گیرنده هم بتواند در پاسخ به محرك خود Ni حالت به خود بگیرد، در نهایت فضای فاز ما دارای Ni Nr N= حالت خواهد بود. یعنی اگر تعداد حالات یك نوع گیرنده به صورت خطی تغییر كند، اطلاعات دریافت شده توسط موجود به شكل لگاریتمی تغییر خواهد كرد. به بیان دیگر، رابطه بین حجم اطلاعات قابل دریافت و تنوع گیرنده ها و حالاتشان، با هم رابطه لگاریتمی دارند، نه خطی (Laughgin, Stavevga -1977، Snyder) .

روشی كه در اینجا برای مدلسازی دینامیك اطلاعات در سیستم های زنده ارائه شده، راهی است شناخته شده در نظریه سیستم ها و سیبرنتیك، و می تواند در بسیاری از جاها مفید باشد. با این روش می توان به سادگی ریخت ( اطلاعات را در هر مقطع زمان در هر موجودی، مجسم كرد. یك آدم كه دارد با دست در تاریكی دنبال چیزی می گردد، بر فضای فاز حسی خود دریافته هایی فراوان را در اطراف محور پساوایی نشان می دهد، كه مكان و دینامیكش در طول زمان به فعالیتی كه دارد انجام می گیرد بستگی دارد. در عین حال همین آدم در شرایطی كه دارد در میان جمعیتی دنبال كسی می گردد، بر محور بینایی بیشترین دریافت را نشان می دهد. در این مدل می توان آسیب های حسی گوناگون را به خوبی نمایش داد، مثلاً یك آدم نابینا را می توان فاقد محور بینایی در نظر گرفت . مقایسه بین موجودات مختلف با دستگاه های حسی گوناگون هم با این مدل به خوبی ممكن است . مثلاً می توان به سادگی دید كه در مسیر تكامل، تعداد ابعاد و گسترة محورهای مربوط به فضای فاز حس بینایی در مهره داران از ماهیان تا پرندگان افزایش یافته و از فضای تك بعدی (تك محوری ) و كم دامنه پارامسی به فضایی با شش بعد (پنج نوع مخروط و یك نوع استوانه ) در لاك پشتان دریایی رسیده .

برای تخمین حجمی از اطلاعات كه توسط هر حس، و در نهایت توسط موجود زنده دریافت می شود، روش های گوناگونی وجود دارد. من در اینجا بر رویكردهایی كه در عصب شناسی مرسوم است بیشتر تاكید خواهم كرد. بنابراین روش، مقدار اطلاعات دریافتی رابطه مستقیمی دارد با توانایی شلیك نورون های مربوط به حس مورد نظر. بنابر نظریه اطلاعات كلاسیك، بیشینه اطلاعات موجود در یك پیام، در حالتی به دست می آید كه احتمال ظهور همه نمادهای بیانگر اطلاعات یكسان باشد. به بیان دیگر، اگر Hmax را به عنوان بیشینه اطلاعات در نظر بگیریم؛

Hmax= lognN (Gatlin et al ,1977) خواهد بود. حالا اگر بیشترین بسامد شلیک یک نرون را با Fmax نمایش دهیم، به این معادله می رسیم : Hmax= log2 (tFmax)=log2N

بنابر این رویكرد، برای حواس مختلف انسان محتواهای اطلاعاتی متفاوتی به دست می آید كه هر یك با رابطه ای خطی، توان اطلاعاتی آن سیستم حسی (یعنی توان جذب و انتقال اطلاعات ) را تعیین می كنند. توانهای اطلاعاتی مورد نظر، مطابق جدول زیر به دست خواهد آمد.

سرعت انتقال اطلاعات، علاوه بر سرعت تولیدش، به پهنای باند انتقال پیام هم بستگی دارد. پهنای باند، عبارتست از بازه ای كه بسامد پیام می تواند تغییر كند. در مورد آدم، تكلم عادی نیاز به پهنای باندی در حدود 7 كیلو هرتز دارد (Meyer & Neumann .1972) . پهنای باند وسایل ارتباطی معمولی مثل رادیو و تلفن از این مقدار كمتر است . علت اینكه پیام های فرستاده شده از راه تلفن و رادیو هم درك می شود، این است كه در زبان هم به موازات نظام الفبایی حشو وجود دارد. در جدول زیر پهنای باند و سرعت انتقال اطلاعات را در رسانه های معمول می بینید.

در جداول مذكور، توان اطلاعاتی، كه همان سرعت انتقال اطلاعات است، از این معادله به دست می‌آید:

Rm= Blogn (1+S/N)

كه در آن Rm بیشینه اطلاعات منتقل شده (برحسب بیت بر ثانیه )، B ثابت وابسته به زمینه، S تعداد نماد معنی دار، و N مقدار نوفه است . (Young et al ,1971,1981,1987 ) .

حالا پایه تئوریك لازم برای تخمین كل اطلاعات موجود در یك موجود زنده را در اختیار داریم . شكستن هر مولكول ATP انرژی ای آزاد می كند كه برای گرفتن 20 بیت اطلاعات از محیط كافیست . اگرفرض كنیم این فرآیند شكست دست بالا یك ثانیه طول بكشد، و اگر تنها یك صدم انرژی تولید شده در بدن یك آدم معمولی برای پردازش اطلاعات صرف شود، توان پردازش یك انسان برابر با 20 10 بیت بر ثانیه می شود. علاوه بر این ظرفیت عملكردی اطلاعاتی، یك ظرفیت ساختاری اطلاعاتی هم وجود دارد. این امر از پیچیدگی ساختار موجودات زنده ناشی می شود، و هم ارز مفهوم مبهمی است كه مدتها با عنوان نظم مورد بحث بوده . اگر بدن یك موجود زنده را یك محلول آبی كلوئیدی در نظر بگیریم (كه در یك معنا چنین هم هست،) آنگاه می بینیم كه در هر مقطع زمان برای تعریف مكان دقیق هر اتم در این محلول،به 28 10 بیت اطلاعات نیاز داریم . مكان دقیق هریك از مولكول های بدن یك انسان را می توان با یك صدم این اطلاعات، یعنی با 26 10 بیت بیان كرد(Carlow et al ,1976/ Volkenstein et al ,1982) .

می توان به روش مشابهی، محتوای اطلاعاتی ژنوم انسان را هم محاسبه كرد. دربارة تخمین های به دست آمده در این مورد بین پژوهشگران اتفاق نظر وجود دارد. مقدار اطلاعات موجود در ژنوم انسان -كه دارای صدهزار ژن است،- حدود 9 10 بیت تخمین زده می شود. در مورد باكتری ها این مقدار به یك صدم، یعنی 7 10 بیت می رسد (Carlow et al,1976 ).

موجود زنده، از یك دیدگاه، یك سیستم پردازندة اطلاعات است، و برای بهینه كردن عملكردش باید از میان انبوه داده های موجود در محیط، مهم ترین پیام ها را برگزیند. این امر به ایجاد بازه های حسی گوناگونی منجر می شود. یعنی در هر دستگاه حسی، اطلاعات موجود در محیط تنها در دامنة خاصی می تواند بر گیرنده های حسی موجود اثر كند. به همین دلیل است كه در همه ِ جانداران شناخته شده، فضای فاز هر حس ویژه تنها محدودة مشخصی را در برمی گیرد. تخمین اینكه در هر دستگاه حسی حجم داده های اطلاعاتی چقدر است و این داده ها با چه سرعتی پردازش می شوند، دشوار است، چون این مقادیر به چندین عامل ناشناخته بستگی دارند. این مقادیر در گونه ها، دستگاه ها، و نقاط گوناگون پردازنده در دستگاه عصبی مركزی مقادیر مختلفی به خود می گیرند.

برای تشخیص و كمی كردن اطلاعات در سیستم های زنده، علاوه بر روشهای ریاضی انتزاعی، شاخصهای زیست شناختی ملموسی هم داریم . مثلاً چنانكه قبلاً هم گفتیم، تمام سیستم های زیستی از دید شیمیایی نوعی ساختار انتشاری هستند. ویژگی مهم متمایز كننده ی این نوع ساختارها، از محیط، وجود غشایی است كه فاصله ی درون و برون سیستم را مرزبندی می كند. غشاهای درون سیستم زنده، نشانگر سدهایی هستند كه انرژی ورودی به سیستم، پیش از خروج از آن باید از آن بگذرد. در عمل، هر غشای زیستی نوعی پردازنده ی بیولوژیك است كه انرژی را پیش از فرار، دگرگون می كند. هرچه تعداد این غشاها در یك سیستم زنده بیشتر باشد، آن سیستم پردازش بیشتری را بر انرژی انجام می دهد، و در نتیجه پیچیده تر فرض می شود. این غشاها، در سیستم های پیچیده تر در اطراف زیرسیستم ها هم ایجاد می شوند، و بنابراین شاخص ساده ای مانند تعداد، نوع، سطح، و فعالیت غشاها، نسبت به حجم سیستم زنده، می تواند شاخصی ساده و ملموس برای تخمین مقدار پیچیدگی سیستم باشد.

۳-۲-۲-۲) پیشنهاد اطلاعات سلسله مراتبی

حقیقت همیشه عجیبتر از تخیل است .( بایرون)

اگر بخواهم تعریفم از اطلاعات مشكلات تعاریف شانونی را نداشته باشد، ناچاریم تا مفهومی ابداع كنیم كه از چند شرط پیروی كند. از میان صاحبنظران این رشته، من به ذكر دیدگاه ژوماری اكتفا می كنم كه به گمانم ابداعاتی راهگشا را در این زمینه انجام داده است . او در كتاب زیبای خود،”اطلاعات نسبی ” پانزده شرط را برای تولید یك نظریه ی اطلاعات همساز -در حالت گسسته – ذكر می كند. این شروط می توانند برای تولید یك دستگاه تعریف اطلاعات نسبی و پیوسته هم مورد استفاده قرار گیرند، و خود ژوماری در همین كتاب چنین كاری كرده است . شروط یاد شده عبارتند از: تقارن، هنجارپذیری، بسطپذیری، تصمیم پذیری، بازگشت پذیری، جمع پذیری، داشتن مرز بالا و پایین، داشتن كمیت همواره مثبت، یكنواخت بودن، پیوستگی موضعی، پایداری، و داشتن سه خاصیت دیگر ریاضی كه برمبنای جمع تعریف می شوند و ذكرشان در اینجا شرح زیادی می طلبد. در نهایت ژوماری بر این مبنا كوشیده تا یك نظریه اطلاعات نسبی و شرطی -و حتی ذهنی – تولید كند.

از سوی دیگر تلاشهای زیادی برای وارد كردن مفهوم سلسله مراتب در نظریه اطلاعات انجام شده است . من در اینجا به یكی از این رویكردها خواهم پرداخت و خواهم كوشید تا نظریه ی اطلاعات سازگار با مقصود ژوماری را برای نیل به تعریفی دقیقتر از اطلاعات در سیستم های پیچیده ی دارای سلسله مراتب، بسط دهم .

سیستمی با فضای فازK بعدی را در نظر بگیریم كه دارای NKعضو مستقل و تحویل ناپذیر به یكدیگر باشد. اگر هر عضو این سیستم بتواند M حالت پیدا كند، كل حالات قابل تصور برای سیستم MNK حالت خواهد بود. در چنین سیستمی، می توانیم بگوییم اطلاعات در I سطح پراكنده شده اند. در این چهارچوب تعداد و مرزهای سطوح i توسط تعداد و چینش عناصر سیستم و تعداد حالاتشان تعیین می شوند. در این حالت، می توان محتوای اطلاعاتی درون سطح i (C1,i) را به این ترتیب تعریف کرد: Cl,i= (j=i) Pi,jlogPi,j

كه در آن Pi,j عبارت است از احتمال ظهور j اُمین عنصر سطح i، در میان كل احتمالات ممكن برای سیستم .

اگر احتمال ظهور همه ی حالات مربوط به یك عنصر را برابر (Pi,j= M-1) فرض كنیم؛

و به این ترتیب : Cl,i= (j=i) M-1 log M-1= ilogn M

بنابراین تعریف، كل اطلاعات نهفته در یك سیستم، با این برابری بیان خواهد شد:

(j=i) ilogn M = Cl = (j=i) Ci,j

از این معادلات اینطور نتیجه می‌شود: Cl = NK [(NK+1)/2] logn M

این معادله را به افتخار پیشنهاد كننده اش، برابری كامینگ می نامند. با این معادلات، می توان محتوای اطلاعاتی سطوح مختلف سلسله مراتب را در یك سیستم پیچیده به دست آورد. برای اینكه این مفهوم خوب روشن شود، مثال ساده ای را در این مورد حل می كنم :

مثال : زبان فارسی دارای 32 حرف و یك علامت فاصله است، و بنابراین همه ی نوشتارهای فارسی از 33 نماد تشكیل شده اند. اگر این زبان را یك سیستم فرض كنیم، در درونش33 عنصر مستقل غیرقابل تحویل به دیگران خواهیم یافت . (33=M)

كل واجهای زبان فارسی را می توان به عنوان یك محور تك بعدی در نظر گرفت، پس باید اینطور جاگذاری كرد: K=1.

در زبان فارسی، چندین طبقه از تركیبات واجی را می توان یافت . هر طبقه، نشانگر واژه ای با طول مشخص است . اگر طول هر واژه را به عنوان یك طبقه از پیچیدگی در زبان فارسی در نظر بگیریم و آن را با i نشان دهیم، در یك متنN حرفی، سیستم دارای MN (=N 33) حالت ممكن خواهد بود كه MN(iN) تا از آنها دارای طول i خواهند بود. یعنی در یك متنN حرفی، [N!/(N-2)!2!] N 33 عنصر دو حرفی قابل تشخیص خواهد بود. اما از این تعداد، به طور آماری تنها (N-1) N 33 تایش به راستی حروف دوحرفی خواهند بود، و باقی تنها تركیباتی دو حرفی از واژگانی با طولهای نامساوی با دو خواهند بود. در كل، از كل حجم تركیبات مفروض در معادله، تنها MN (N-i+1) تایشان i حرفی حقیقی خواهند بود. پس محتوای اطلاعاتی موجود در سطح تركیبات دو حرفی در سیستم زبانی فارسی، برابر خواهد بود با: Cl= N [(N+1)/2] logn 33

برمبنای آنچه كه تا اینجا گذشت، می توان مفهوم نظم را در سیستم های سلسله مراتبی تعریف كرد.

در یك سیستم طبیعی، كه دارای MNK حالت ممكن است، در هر مقطع زمانی تنها برخی از آنها مجاز محسوب می شوند. شرایط زمانی – مكانی در سیستم های عادی به شكلی است كه در هر بازه ی زمانی،بخش مهمی از تنوعهای مربوط به حالات سیستم خود به خود حذف می شود. این امر، در واقع بیان دیگرگونه ی همان مفهوم فضاهای مجاز و غیرمجاز بر فضای فاز سیستم است . هر سیستم، دارای عناصری است كه از دید یك ناظر فرضی دارای آمیزه ای از روابط منظم و نامنظم در خود هستند. هر ناظر، بسته به معیارهای سنجش خود، برخی از روابط درونی سیستم مورد بررسی را به عنوان نظم، و برخی دیگر را به عنوان بی نظمی در نظر می گیرد. می توان محتوای اطلاعاتی یك سیستم را، در سطحی مشخص، به مجموعه ای از عناصر منظم و نامنظم افراز كرد. به بیان دیگر، با این تعاریف می توان به واژه ی نظم، ماهیتی عینی تر بخشید:

اگر Cd,i برابر با محتوای بی نظمی، و Co,i معادل محتوای نظم موجود در سطحi از سیستم مورد بررسی ما باشد، آنگاه :

Cl- Cd,i = Co,i

یعنی مقدار نظم درونی سیستم در سطح i برابر خواهد بود با اختلاف محتوای كل اطلاعاتی سیستم، ازمحتوای بی نظمی آن . پس : Cl= Co,I + Cd,i

این تعاریف در عمل بیانگر این حقیقت است كه محتوای نظم یك سیستم، عبارت است از محدودیتهای درونی یا بیرونی تحمیل شده به آن، كه رفتار و پویایی خاصی را به عناصر سازنده ی آن تحمیل می كند.

اگر بخواهیم همین مفهوم را در همان قالب مثالمان بر زبان فارسی بزنیم، باید اینطور بگوییم كه نظم در یك سطح از زبان، همان قوانین طبیعی یا قراردادی خاصی است كه بسامد حضور و نوع جایگیری عناصر را در سیستم تعیین می كند. مثلاً در زبان فارسی بسامد تكرار حرف الف بیشتر از حرف ظ است، و در یك سطح خاص دستوری، جایگیری واژگان به شكلی است كه فعل معمولاً در آخر جمله قرارمی گیرد.

كل محتوای اطلاعاتی یك سیستم، به زمانی مربوط می شود كه هیچ قانون و محدودیتی تقارن موجود برای امكان حضور عناصر گوناگون سیستم در جاهای كاتوره ای را نشكند. محتوای بی نظمی سیستم، زمانی كاربرد دارد كه این عناصر زیر اثر محدودیت مورد نظر مجال ظهور یابند. و مقدار نظم درون یك سیستم، به اختلاف اطلاعات كل، از اطلاعات حالت قانونمند (حالت بی نظم ) برمی گردد. البته این تمام تعبیرات ریاضی ممكن از مفهوم نظم نیست . تعبیر مشهور دیگر، این چنین است : Cd/Cl =نظم و Co/Cl =بی‌نظمی(Landsberg, 1984).

بر مبنای این تعاریف، می توان به طور ریاضی نشان داد كه محتوای كل اطلاعات یك سیستم پایدار (یا درحالت خاص، بسته ) در طول زمان مقداری ثابت است . به بیان دیگر، با وجود تغییرات نسبت نظم به بی نظمی، حاصل جمع كل آنها تا موقعی كه خود سیستم تغییر ساختار نكند، ثابت خواهد بود (1969,Kittel) .

در چهارچوبی كه در اینجا معرفی شد، مفهوم نوفه را هم می توان دوباره تعریف كرد. نوفه، چنان كه می دانیم، عاملی كاتوره ای است كه باعث ایجاد تغییراتی تصادفی در ساختار اطلاعاتی سیستم می شود. گاهی مواقع، نوفه باعث می شود سیستم وارد مناطق غیرمجاز فضای فاز خود شود، و این همان است كه تلاشی و نابودی سازماندهی سیستم را به دنبال خواهد داشت . اگر بخواهیم بر مبنای نظم مفهوم نوفه را بیان كنیم، باید بگوییم این عامل چیزی است كه مقدار نظم درون سیستم را كاهش داده و در مقابل بی نظمی آن را بیشتر می كند.

اگر بخواهیم قانون دوم ترمودینامیك را بر مبنای واژگانی كه تا اینجا تعریف كردیم بازنویسی كنیم، به این چهار گزاره می رسیم :

الف : محتوای كل اطلاعات درون یك سیستم بسته ثابت است .(ثابت= Cl)

ب : محتوای كل اطلاعاتی یك سیستم برابر است با مجموع محتواهای نظم و بی نظمی ساختار درونی آن .

پ : محتوای نظم یك سیستم در طول زمان ثابت می ماند یا كم می شود.

ت : محتوای بی نظمی یك سیستم در طول زمان افزایش می یابد یا ثابت می ماند.

آشكار است كه تعاریف یاد شده، در اصل برای یك سطح از سلسله مراتب صورتبندی شد، اما به سادگی می توان آن را به كل سیستم تعمیم داد.

یك مفهوم دیگر كه در اینجا قابل تعریف است، عبارت پایداری است . میل سیستم برای حفظ وضعیت پایدارش را می توان به این ترتیب تعریف كرد كه دو مقوله ی متضاد را از نظم و بی نظمی استخراج كرد:

PO,i: عبارت است از قدرت مرزهای سیستم (در سطح i)، برای حفظ تمایز بین درون و برون سیستم . این عبارت در اصل توانایی پایداری سیستم را در برابر نوفه ها را بیان می كند.

PD,i: عبارت است از گرایش سیستم (در سطح i)، برای گریز از حالت تعادل و ورود به حالات غیرمجاز. به بیان دیگر این نماد قدرت نوفه برای نقض محدودیهای قانونی سیستم را نشان می دهد.

با توجه به این دو مفهوم، می توان شاخص جدیدی به نام گرایش به نظم را در سطح i تعریف كرد: Po,i /To,I = PD,i

این شاخص، تمایل سیستم را برای حركت به سمت نظم بیشتر -و نقض موضعی قانون دوم ترمودینامیك – یا رسیدن به تعادل با محیط و رسیدن به حداكثر بی نظمی را نشان می دهد. اگر مقدار آن بیشتر از یك باشد، نشانگر تمایل سیستم برای رسیدن به بیشینه ی نظم ممكن است، و اگر مقدارش از یك كمتر باشد، عكس این مطلب را می رساند. به بیان دیگر، اگر این شاخص در سیستمی با زمان نامحدود بیشتر یا كمتر از یك باشد، بی نظمی و نظم در آن به سمت صفر میل خواهد كرد.

با توجه به آنچه كه گذشت، می توان مفهوم خودسازماندهی را با صورتبندی جدیدی تعریف كرد.

سیستمی خودسازمانده است كه این چهار شرط را برآورده كند:

الف : با گذشت زمان هم نظم و هم بی نظمی در آن زیاد شود. یعنی محتوای كلی اطلاعات درونش افزایش یابد.

ب : با گذشت زمان نظم آن در تمام سطوح بیشتر شود. یعنی افزایش اطلاعات و پیچیدگی در تمام ساختار سیستم انجام شود و موضعی نباشد.

پ : برای سطوح iکوچک؛ Co,i < CD,i یعنی درجه ی آزادی آن در سطوح میكروسكپی زیاد باشد و رفتاری شبه تصادفی داشته باشد.

ت : برای سطوح i بزرگ؛ Co,i > CD,i. یعنی در سطوح كلان و ماكروسكپی، نظم نمودی بیشتر از بی نظمی داشته باشد.

همه ی این چهار شرط بر روی هم، به این گزاره می انجامند: 1<To,i

آشكار است كه دو شرط اول، نشانگر باز بودن سیستم است . دو شرط بعدی، در واقع بیان ریاضی این مطلبند كه نظم ساختار در سیستم های پیچیده، در سطوح بالاتر ساختار پدید می آیند.

بر اساس شاخص معرفی شده، سه نوع سیستم را می توان از هم تمیز داد:

نخست : سیستمهایی كه در سطوح پایینی سلسله مراتب (در i كوچك ) گرایش به نظمشان از واحد بیشتر باشد. این سیستم ها، اشكالی پایدار و ساده دارند و معمولاً قوانین تقارنی سختی را رعایت می كنند. بلورهای معدنی نمونه ای از این سیستم ها هستند.

دوم : سیستم هایی كه در سطوح بالایی سلسله مراتب دارای گرایش به نظمی كمتر از واحد هستند. این سیستم ها همه آشوبناك هستند و سیستم های مورد بررسی در مبحث دینامیك گازها نمونه هایی از آنها هستند.

سوم : سیستم هایی كه گرایش به نظمشان در سطوح پایین سلسله مراتب كمتر از یك و در سطوح بالایی بیشتر از یك باشد. این سیستم ها پیچیده هستند و همه ی سازواره های خودسازمانده، از جمله ساختارهای زنده را در برمی گیرند.

اگر بخواهیم معادلات ترمودینامیك مربوط به آنتروپی را با چهارچوب مورد نظر خود سازگار كنیم، ناچار خواهیم بود تا دو مفهوم پایه در سیستم ها را تعریف كنیم :

نخست مفهوم حالت خُرد كه عبارت است از حالات ممكن برای تغییر یك عنصر از عناصر سیستم . و دوم حالت كلان كه برابر است با پراكنش صفات و حالات یاد شده در كل ساختار سیستم . به بیان دیگر، این دو مفهوم بیانگر تنوع حالات سیستم، در دو سطح خرد و كلان از سلسله مراتب پیچیدگی هستند.

اگر بخواهیم معادلات آنتروپی را در این قالب بازنویسی كنیم، به این برابری می رسیم: lognA = Hmax

كه در آن A برابر است با تعداد حالات خرد، و Hmax بیشینه ی اطلاعات را نشان می دهد كه با تعریفی مناسب می تواند با تعداد ابعاد فضای فاز مساوی فرض شود.

برای بازتر شدن مفهوم زدن مثالی شایسته است . فرض كنیم اطلاعات ساختاری (یعنی ژنوم ) یك جاندار دارای یك لوكوس با دو آلل باشد. در این حالت، ژنوتیپی كه در موجود مشاهده می شود، (یكی از دو حالت ممكن ) حالت خرد سیستم است . از سوی دیگر پراكنش همین آللها، آنگاه كه در كل جمعیت جانداران هم گونه ی موجود یاد شده مورد توجه قرار گیرد، حالت كلان سیستم جمعیتی را بیان می كند.

 

 

  1. Novelty

 

 

ادامه مطلب: توجیه پویایی پیچیدگی

رفتن به: صفحات نخست و فهرست کتاب