گفتار نخست: اطلاعات
اندركنش موجود زنده با محيط پيرامون خود، چنانكه گفتيم اطلاعات ايجاد میكند. اطلاعات در معنای عام خود شكل سوم ماده است و به چينش عناصر سازندهی يك سيستم مربوط میشود، ولی در اينجا، بيشتر معنای جريانی از القائات محيطی دگرگون كنندهی چينش درونی سيستم زنده را از آن اراده خواهم كرد. برای اطلاعات تعاريف فراوانی داده شده و برخی از آنها قابلقبولند. از آنجا كه هنوز به گمان من تعريف اين مفهوم در سيستمهای زنده دقيق نيست، چندان به ريزهكاريهای تعريف اين مفهوم نخواهم پرداخت. از ميان رويكردهای رايجتر و راهگشاتر به اين مفهوم، چند مورد را ذكر میكنم و نقد كوتاهی هم بر آنها خواهم داشت. در نهايت بايد به اين نكته توجه كرد كه مفهوم پيچيدگی، نظم و اطلاعات هر سه با يكديگر مربوطند. با توجه به اهميتی كه مفهوم پيچيدگی در فلسفهی من ايفا میكند، مفهوم اطلاعات نيز بايد به عنوان يك كليدواژهی مهم در نظر گرفته شود. من در جای ديگری در مورد تعريف دقيقتر اطلاعات و رابطهی آن با پيچيدگی خواهم نوشت، و بنابراين در اينجا از تكرار مكررات میپرهيزم. اهداف اساسی اين گفتار عبارت خواهند بود از: روشنتر كردن مفهوم اطلاعات. نشان دادن درجهی اثرپذيری سيستم زنده از محيطش. روشهايی برای كمی كردن اين تاثيرات. بررسی دامنهی اين اثرپذيری. و در نهايت مقايسهی آنچه كه سيستم زنده درك میكند، با آنچه كه واقعا وجود دارد.
پيش از پرداختن به بحث، لازم میدانم برای دقيقتر شدن بحث، دو اصطلاح را تعريف كنم. در سيستم واژگانی كه از اين پس مورد استفاده قرار خواهم داد، واقعيت عبارت خواهد بود از آنچه كه در جهان خارج از ناظر میگذرد. يعنی آن جهان خارجی ناشناختهای كه تنها وجود و حركت را در آن فرض گرفتيم، واقعيت خواهد بود. حقيقت در مقابل، برابر خواهد بود با برداشتی كه ناظر زنده از واقعيت خارجی دارد. حقيقت بازنمايی حركت موجود در جهان خارج -واقعيت- بر سيستم زنده خواهد بود. عدهای به من در مورد اين انتخاب واژگان ايراد كردهاند و برعكس آن را درستتر دانستهاند. به گمان من بحث بیمورد در مورد واژگان يكی از بيهودهترين كارهايی است كه يك پژوهشگر میتواند انجام دهد. من با گفتهی آن انديشمند عصر نوزايی، موافق نيستم كه میگفت: فلسفه عبارت است از سوءاستفاده منظم از واژگانی كه برای اين كار ابداع شدهاند.
با اين وجود، از آنجا كه درك نادرست اين دو واژه به فهم آنچه كه خواهم گفت لطمه میزند، در اينجا به اختصار میگويم كه واقعيت -از ريشهی وقوع- چيزی است كه در فلسفه از ديرباز به عنوان امری مستقل از ناظر و مربوط به جهان خارج مطرح بوده. وقوع يك اتفاق، مستقل از ناظری است كه ممكن است آن را مشاهده كند. در برابر، حقيقت -از ريشهی حق- چيزی است شخصیتر حق بسته به ديدگاه خاص هركس معنی میشود و لزوما دارای مصداق خارجی نيست. از اين رو مفهوم حقيقت از واقعيت درونیتر و ذهنیتر است. به همين دليل هم در كل اين واژگان را به اين ترتيب انتخاب كردهام.
الف: مروری بر مفهوم اطلاعات
مفهوم واژهی اطلاعات در نگاه نخست كاملا آشكار و واضح به نظر میرسد، ولی پاسخ دقيق به اين پرسش كه اطلاعات به راستی چيست، مدتهاست كه ذهن دانشمندان را به خود مشغول داشته است. اطلاعات، يكی از معدود مفاهيمی است كه پيش از تعريف شدن، به صورت كمّی تحليل شد، و اين عكس روال معمولی است كه در تاريخ علم شاهد آن هستيم. كمّی كردن مفاهيم و تحليل رياضی آنها، به درك عميقی از مفهومشان وابسته است، و بنابراين معمولا تعريف قبل از تحليل مشخص میشود. در بعضی موارد، اين اصل نقض میشود و مفاهيمی مبهم، به دليل اهميت كاربرديشان، زودتر از موعد شمارشپذير میشوند. اطلاعات، در اواسط قرن بيستم، توسط يك دانشمند فرانسوی به نام كلود شانون، در قالب نظريه اطلاعات به صورت كمّی درآمد. اين كار، همزمان با شكلگيری نخستين شبكههای مخابراتی و اطلاعرسانی انجام گرفت. چنانكه گفتيم، اين امر پاسخی بود پيش از موعد، به نياز مبرم تكنولوژی، كه به تدريج اطلاعات را در ابعاد وسيع به كار میگرفت. با وجود اينكه شانون در نظريهی خود تعريفی برای اطلاعات ارائه كرده بود، ولی از آن هنگام تا به حال بين نظريهپردازان در مورد دقت و صحت اين تعريف، اختلاف نظر وجود دارد.
برای اطلاعات تعاريف فراوانی وجود دارد، و همين زياد بودن تعاريف، يكی از دلايل نادقيق بودن مفهوم آن است. من در اينجا بعضی از اين تعاريف را فهرستوار ذكر میكنم تا زمينهی موضوع مشخص شود. خود شانون اطلاعات را به صورت معنايی نزديك به آنتروپی تعريف میكند و حتی در محاسبات خود، از معادلات مربوط به آنتروپی -برگرفته از قانون دوم ترموديناميك- بهره میبرد. بنابراين تعريف، اطلاعات يك گزاره عبارت است از پيچيدگی روابط موجود بين اجزای آن. اگر يك مجموعه از احتمالات گسستهی مكمل يكديگر را -مانند p1, p2, …pn – داشته باشيم، و اين مجموعه از احتمالات، حالت يك سيستم را مشخص كنند، آنگاه اطلاعات اين سيستم برابر خواهد بود با بيتهايی كه برای تعريف يكی از اين حالات -كه سيستم را معرفی میكند،- لازم است. يعنی اگر P عبارت باشد از كل احتمالات ممكن در مورد يك سيستم، و:{ P={ p1, p2, ….pn
آنگاه اطلاعات موجود در سيستم (H(p بر حسب بيت- برابر خواهد بود با: H(p)= – pi log pi
چنانكه میبينيد، اين معادله با برابری مربوط به آنتروپی در ترموديناميك كلاسيك همريخت است. شايد همين همريختی معادلات، منشأ اصلی اشتباه شانون در همتا گرفتن اين دو مفهوم بوده باشد. در صورتی كه چنين همتايی را بپذيريم، به اين نتيجه میرسيم كه يك سيستم، در حالتی كه احتمال بروز همهی حالاتش با هم برابر باشد، دارای بيشينهی اطلاعات ممكن است. يعنی در صورتی كه قاعدهی برابری امكانات[1] برقرار باشد p1= p2= …=pnآنگاه آنتروپی بيشينه خواهد شد، چون بینظمی سيستم در بالاترين درجهی خود خواهد بود. در عين حال، بر اساس معادله شانون خود اطلاعات و هم بيشينه خواهد بود و اين موردی است كه با بيشينه بودن بینظمی همخوانی ندارد.
حشو، مفهوم مهم ديگری است كه همواره در نظريه اطلاعات در كنار خود مفهوم اطلاعات مطرح میشود. حشو به اين معناست كه يك پيام به طور خالص از نمادهای معنیدار و حاوی ارزش اطلاعاتی تشكيل نشده، بلكه برخی از اجزای آن حالت نوفه دارد و در انتقال اطلاعات نقشی را ايفا نمیكند. وجود اين عناصر اضافی، از يكسو به طول پيام میافزايد، بی آنكه ارزش اطلاعاتی آن را زياد كند، و از سوی ديگر احتمال خطا در فرآيند رمزگشايی را كاهش میدهد. مثلا مجسم كنيد معنايی مثل يك تاريخ، مثلا 1375میخواهد منتقل شود. میتوان اين مفهوم را با چهار علامت عددی بيان كرد. در صورت اختلال در انتقال اين پيام كوتاه، مفهوم در كل آسيب زيادی میبيند. مثلا اگر يك علامت 3 به 6 تبديل شود، كل پيام تغيير میيابد و بهصورت 1675 قلب میشود. در مقابل میتوان همين پيام را به صورت هزار و سيصد و هفتاد و پنج هم نوشت، در اين حالت، به جای چهار علامت عددی، 21 نماد الفبايی مورد استفاده قرار گرفته. يعنی طول پيام بدون تغيير در معنا زياد شده، ولی در مقابل مصونيت پيام در مقابل تغييرات هم بالا رفته است، و ديگر تغيير يك حرف -مثلا ن به م- كل پيام را دگرگون نمیكند. يعنی گيرنده به احتمال زياد خواهد توانست معنای درست هزارو سيصد و هفتاد و پمج را دريابد. وجود نوفه چگالی اطلاعات بر نماد را در پيام كم میكندو چون در فن مخابرات فرستادن هر نماد با صرف انرژی همراه است، بهترين پيام، كم حشوترين پيغام محسوب میشود.
با توجه به اينكه شانون برای شركتهای بزرگ مخابراتی كار میكرده و تمركز كارش بر پيامهای كدبندی شدهی انسانی بوده، میتوان ديد كه تعريف مورد نظر او برای بسياری از سيستمهای ديگر قابل تعميم نيست. مثلا نمیتوان تعاريف مورد نظر او را در مورد سيستمهای غيرگزارهای به كار برد. در اين سيستمها، آشكار است كه وجود اطلاعات همارز كم شدن بینظمی و به هم خوردن تعادل بين احتمالات است. ايرادی كه ذكر شد، به تعريف شانون از حشو هم وارد است. در اينجا هم حشو از همين تعريف نادرست اطلاعات ناشی میشود.
بنابر نظر شانون، اگر برابری امكانات در يك سيستم به هم بخورد، يعنی اگر برابری بين امكانات مختلف موجود برای حالت سيستم نقض شود، حشو زاده میشود. وجود حشو به زعم شانون باعث كاهش اطلاعات مفيد در سيستم میشود. بر مبنای همين تعاريف، آزمايشها و سنجشهای فراوانی در مورد سيستمهای مشهور كدگذاری پيامها انجام شده، و مثلا در اين ميان ساختارهای زبانی طبيعی هم زياد مورد بررسی قرار گرفتهاند.
پس از بنيانگذاری نظريه اطلاعات (. (Shanon & Weaver, 1949بسياری از دانشمندان ديگر كوشيدند تا اين تعاريف و معادلات را اصلاح كنند و آن را به صورت ابزاری كارآمد برای تحليلی سيستمهای پيچيده درآورند. شانون در تئوری اوليهی خود، اطلاعات را تنها به دستوربندی جملات و گزارهها مربوط كردهبود و همين امر يكی از مهمترين ايرادات كار او را تشكيل میداد. چرا كه در يكی از برداشتهايی كه از اين صورتبندی اطلاعات انجام میشد، دو جمله، -يكی با معنا و ديگری بیمعنا- كه طول يكسانی داشتند، دارای محتوای اطلاعاتی يكسانی در نظر گرفته میشدند. برای رفع اين مشكل، محققان بعدی سطوحی را برای اطلاعات تعريف كردند. سطح ابتدايی را كه همان سطح دستوری[2] بود، مربوط به روابط بين اجزای جمله -مانند واژگان- دانستند، و سطح بعدی را سطح معنايی[3] ناميدندكه به ساختار معنايی ناشی از اجزای جمله مربوط میشد. بعدها سطح ديگری هم به اين دو افزوده شد و آن هم سطح كاربردی بود كه تنها به اثر پيام بر گيرنده وابسته بود. هرچه اثر دگرگونكنندگی پيام بر رفتار گيرنده يا فرستنده بيشتر باشد، اطلاعات اين سطح هم بيشتر خواهد بود. وایتساکر[4] كه يكی از پيشگامان نظريه اطلاعات است، مفهوم مورد نظر مارا به اين ترتيب تعريف میكند: هرچيزی كه فهميده شود، اطلاعات است.
او به اين ترتيب اطلاعات را در سيستمی متشكل از گيرنده و فرستنده تعريف میكند، و مفهوم اطلاعات در خلأ را غيرقابلقبول میداند. همچنين رفتارشناس بزرگی مانند ویلسون هم به همين ترتيب اطلاعات را تعريف میكند. او اطلاعات را با مفهوم ارتباط پيوسته میداند، و اطلاعات -پيام- را چيزی میداندكه از فرستندهای به گيرندهای منتقل میشود و الگوی احتمالاتی رفتار آن را به شكلی دگرگون میكند. البته خود او به ايرادات و موارد نقض اين تعريف اشاره دارد، ولی برای كاربردهای خاص مورد نظر خود، آن را مناسب میبيند. Wilson, 1995)).
بریلون[5] بر مفهوم شانون اطلاعات انتقادات بسياری وارد كرده و آن را فاقد مصداق فيزيكی و خارجی میداند. بنابر نظر او، تعريف سنتی از اطلاعات، تفاوتی در ميان حالات رفتاری خرد و كلان عناصر سازندهی يك سيستم قائل نمیشوند. اين تمايز، در تحليل همافزايی بسيار كاربرد دارد. من در جايی ديگر در اين مورد خواهم نوشت و ديگر در اينجا زياد در موردش شرح نمیدهم. با توجه به ايراداتی كه اين پژوهشگر بر شانون وارد كرده، بايد مفهوم اطلاعات شانونی را همتای معكوس اطلاعات فيزيكی دانست. چون با بینظمی -آنتروپی- رابطهی مستقيم دارد.
اشخاص ديگری مانند کولیه[6] كوشيدهاند تا اطلاعات را بر اساس نظم موجود در ساختار سيستمهای فيزيكی تعريف كنند. بر اين اساس، اطلاعات برابر خواهد بود با بيتهای لازم برای تعريف چينش آرايههای خاص سازندهی يك سيستم Collier et al, 1986,1988)). بر اين مبنا، آنتروپی و اطلاعات معانی متضادی با هم پيدا خواهند كرد. يكی ديگر از افرادی كه كوشيدهاند تا اطلاعات را بر اساس ساختار درونی و فيزيكی سيستمها تعريف كنند، زيستشناسی به نام بروکس است، كه با همكاری وایلی كتابی زيبا نوشته و اطلاعات را در سيستمهای پيچيدهی فيزيكی براساس ساختار درونی سيستم و سلسله مراتب كاركردی آن تعريف كرده (Wiley & Brooks, 1988). اين تعريف اخير بسيار مورد توجه من است، اما به دليل اينكه پرداختن به آن ما را به حيطهی تحليل سيستمهای پيچيده وارد میكند و از بحث جاری دور میسازد، واردش نمیشوم.
در نهايت، چيزی كه مورد نظر بود، آشنايی مقدماتی با مفهوم اطلاعات، و مباحثی بود كه در اين مورد جريان دارد. گمان میكنم اين آشنای حاصل شده باشد. خواننده میتواند برای ورود به بحثی دقيقتر در مورد اطلاعات، و تعاريف مورد نظر من، -كه با اندكی تفاوت با ديدگاه اخير ياد شده يكسان است،- به رسالهای كه در مورد همافزايی نوشتهام، مراجعه كند.
چنانكه ديديد، تعريف مشترك مورد قبول همهی دانشمندان برای اطلاعات وجود ندارد. با اين وجود همه ديدگاهی مبهم در مورد معنی اين واژه دارند. برای روشنتر شدن مفهوم مورد بحث، مثالی كمی میتواند كارساز باشد، چرا كه در اين مورد نظرها يكسان است. اطلاعات، از نظر محاسباتی، عبارتست از تعداد بيتهايی كه برای بيان وضعيت دقيق يك پيام لازم است. اگر يك مفهوم اطلاعاتی چندين حالت داشته باشد، تعداد عناصر مجموعهای از صفر و يكها كه لازم است تا يكی از اين حالات از بقيه متمايز شود، اطلاعات مربوط به آن حالت است. مثلا الفبای فارسی در كل 84نماد دارد. مشتمل بر حروف بزرگ و كوچك و ميانه و علايم نقطهگذاری. اگر بخواهيم از ميان اين مجموعه 84 عضوی يكی را انتخاب كنيم، بايد به اندازه log2 84 = 6/5بيت اطلاعات صرف كنيم. به بيان ديگر در زبان فارسی، محتوای اطلاعاتی هر نماد 5/6 بيت است. چون بيت مفهومی دودويی است، در محاسبات نمیتوان مقدار اعشاری به آن نسبت داد. بنابراين در محاسبات اين مقدار را معمولا برابر با 7بيت میگيرند. به همين ترتيب در زبان انگليسی، میتوان 64نماد الفبايی را تشخيص داد، كه با log2 64 = 6 بيت برابر است. از روی مثالهايی كه ذكر شد، به سادگی میتوان معادلهای را پيشبينی كرد كه مقدار اطلاعات را بر حسب بيت به دست دهد. اين معادله عبارت است از:
H = in Pi log2 Pi
كه در آن Piبرابر است با احتمال ظهور هريك از nنماد موجود در پيام.
به عنوان مثالهايی ديگر در اين مورد، میتوان به كد ژنتيكی موجودات زنده اشاره كرد. میدانيم كه يك رمز ژنتيكی از توالی خطی اسيدهای نوكلئيكی تشكيل يافته كه تنها چهار نوع باز آلی را میتوانند شامل شوند. به اين ترتيب محتوای اطلاعاتی هر واحد كد ژنتيكی برابر میشود با -بيت بر نماد .log2 4 = 2 در اينجا هر نماد عبارت است از يك اسيد نوكلئيك. با توجه به اين اندازهگيری، میتوان حجم اطلاعاتی نهفته در ژنوم گونههايی را كه مقدار مواد وراثتیشان معلوم است، اندازه گرفت. مثلا ژنوم ويروس كوچك SV40نوعی ويروس ميمونهای Simian تنها از پنج هزار جفت باز آلی تشكيل شده. به بيان ديگر، حجم اسيد نوكلئيك موجود در اين ويروس برابر 5 kbp تقريبا معادل 1012*3 دالتون میباشد (واتسون, .1374). با توجه به اين كه هر جفت باز آلی دارای 2بيت اطلاعات میباشند، حجم كلی اطلاعات نهفته در ژنوم اين ويروس 5000*2= 10000بيت خواهد بود. يا مثلا بزرگی ژنوم كُلی باسيل Escherechia coli كه مقيم رودهی بزرگ همهی ما آدمهاست، 4000 kbp است واتسون, .1374يعنی محتوای اطلاعاتیاش برابر است با 4*106*2= 106*8 بيت. اين باكتری ياد شده، دارای چهار هزار ژن است و كل DNAاش در حالت كشيده يك ميليمتر طول دارد. حالا آن را با ژنوم انسان مقايسه كنيد كه دارای سی هزار ژن است و در حالت كشيده 173سانتیمتر طول دارد (گالين, 1372). آشكار است كه با پيچيدهتر شدن سيستم زنده، محتوای اطلاعاتی نهفته در ژنوم آن نيز افزايش میيابد.
میتوان همين مثال را در يك سطح بالاتر و در حد اسيدهای آمينه و پروتئينها تكرار كرد. میدانيم كه در كل 20نوع اسيد آمينهی اصلی داريم كه بيش از 95% از ساختار پروتئينها را میسازند. رفتار يك ماكرومولكول پروتئينی توسط توالی و تعداد اين اسيدهای آمينه تعيين میشود. هر پروتئين هم مستقل از شكل فضای خاص خود كه مربوط به نيروهای فيزيكوشيميايی ويژهی اجزايش است، میتواند به صورت يك توالی خطی از اسدهای آمينه نمايش داده شود. ما ژنوم را جملهای در نظر گرفتيم با طولهای متفاوت وابسته به پيچيدگی گونه، كه با الفبايی چهار حرفی نوشته شده است. به همين ترتيب میتوانيم پروتئينها را هم جملاتی مشابه بدانيم كه با بيست حرف نوشته شدهاند. با چنين فرضی، محتوای اطلاعاتی هر اسيد آمينه تقريبا برابر با log2 20= 4/2 بيت خواهد بود.
حالا به اين مثال دقت كنيد:
مولكول هموگلوبين انسان، از چهار رشتهی پلیپپتيدی تشكيل شده است. اين چهار رشته، عبارتند از دو رشتهی آلفا و دو رشتهی بتا. هر رشتهی آلفا، از 141اسيد آمينه تشكيل شده. يعنی محتوای اطلاعاتی آن عبارت است از 141* 2/4= 2/592 بيت. اين رشتهی پلیپپتيدی توسط قطعهای از ژنوم كد میشود كه 643جفت باز دارد. هر اسيد آمينه توسط سه جفت باز كد میشود و اين ژن خاص دارای دو اينترون به طولهای 95و 125جفت باز هم هست (Tamarine, 1993).
به اين ترتيب مقدار اطلاعات نهفته در ژن رشتهی آلفا برابر است با 643 * 2 = 1286بيت. يعنی محتوای اطلاعاتی ژن كنندهی رشتهی آلفا، چيزی در حدود دو برابر اطلاعات نهفته در خود آن رشته است.
اين زياد بودن محتوای اطلاعاتی ژنوم نسبت به محصولات پروتئينی، دو جنبه دارد. يكی مربوط به خود اينترونهاست، كه در فرآيند ترجمه و كدبندی كردن پروتئينها شركت نمیكنند. ديگری مربوط میشود به اين حقيقت كه هر اسيد آمينه توسط سه اسيد نوكلئيك كد میشود. علت مورد نخست معلوم نيست و وجود اين همه بازآلی بیفايده در ژنوم يوكاريوتها هنوز از معماهای ژنتيك است. اما مورد دوم قابلپاسخگويی است. اين زياد بودن محتوای ژنومی نسبت به نتايج پروتئينی، در اصل نوعی حشو است. اين نوع از حشو، به ويژه در جاهايی كه قرار است اطلاعات از چند سيستم نمادين مختلف بگذرند و چندبار ترجمه شوند، نقشی حياتی را بر عهده دارد و آن هم جلوگيری از قلب شدن پيام و ايجاد خطاست. میبينيم كه مكانيسمها تكاملی چنين حشوی را در ژنوم موجودات به خوبی جاسازی كردهاند. نمود ديگر اين حشو، زياد بودن تعداد نسخههای ژنهای مربوط به پروتئينهای حياتی است. گروهی از ژنها در ياختهها شناسايی شدهاند كه در سطح ژنوم مرتبا تكرار میشوند. اين ژنها كه ژنهای با توالی متوسط[7] خوانده میشوند، میتوانند در كل 105تا 103بار تكرار شوند. مثلا برخی از ژنهای ساختمانی مهم مانند ژن هيستونها، rRNAو tRNA از اين گروه محسوب میشوند. به دليل همين فراوانی حشو در سطح ژنوم است كه میبينيم در هر روند همانندسازی، احتمال بروز خطا تنها 11 –10-7 – 10 است (واتسون, 1374).
در ژنوم مهرهداران حالتی ديگر از حشو ديده میشود. در اين موجودات، احتمال اينكه يك باز آلی كه به طور كاتورهای انتخاب شده، گوانين يا سيتوزين باشد، 40-44% است. يعنی احتمال حضور اين دو باز در ژنوم برابر است با 2+- 42 % كه نيمی از آن مربوط به گوانين و نيم ديگر مربوط به سيتوزين است. همبستگی بين احتمال حضور اين دو باز نوعی حشو در ژنوم مهرهداران ايجاد میكند. از آنجا كه بيشينه حشو ژنومی موجود در مهرهداران كمتر از بيشينه مقدار مشابه در ميان بیمهرگان است، میتوان به زبان نظريه بازیها، استراتژی مهرهداران را در طول مسير تكامليشان به اين شكل بيان كرد: .MinMax= D Max
يعنی اين جانوران بالاترين مقدار حشو ژنومی خود را كمينه كردهاند و به اين ترتيب محتوای اطلاعاتی ژنوم خود را زياد كردهاند. مطالعات كورنبرگ[8] نشان داده است كه در مورد كمينه مقدار حشو ژنومی وضعيت برعكس است و كمينه حشو ژنومی در ميان مهرهداران از كميت مشابه در بیمهرگان بيشتر است. در اين مورد میتوان استراتژی را به صورت (MinMax= D(Minنشان داد. يعنی بيشينه كردن كمينه حشو. نمونههای متعددی از حشو در ژنوم موجودات زنده كشف شده است كه نمونه بارز آن توالیهای تكراری موجود در انتهای كروموزومها است. حتی در موجوداتی به سادگی ويروسها هم اين توالیها ديده میشوند. مثلا در ويروس موزاييك توتون اين توالی به صورت تكراری ديده میشود: A-GAA-GAA-GUU-GUU ناگفته پيداست كه توالیهای حشوی ژنی نقش عملكردی ندارند و هيچ mRNA و پروتئين خاصی را كد نمیكنند.
در مورد حشو، مثالهای ديگری هم میتوان زد. مثلا در زمينهی زبانشناسی در اين مورد زياد كار شده. در اينجا فقط به دو نمونه از اين موارد اشاره میكنم:
الف: در زبان انگليسی كه از 27نماد -به طور ساده- تشكيل يافته، محتوای اطلاعاتی هر نماد بايد بر اساس فورمولی كه گفتيم برابر با 7/4 بيت بر نماد باشد، ولی از آنجا كه در زبان انگليسی 58% حشو وجود دارد، محتوای اطلاعاتی واقعی هر نماد تنها 2بيت است. معنای اين كه گفتيم 58% زبان انگليسی حشو است، اين است كه اين نسبت از سؤالات با پاسخهای دودويی را میتوان برای درك يك پيام حذف كرد. به بيان ديگر، اگر در يك نامه به زبان انگليسی 58 % حروف حذف شوند، هنوز هم میتوان به مضمون نامه پی برد.
ب: در بررسیهايی كه برروی كتابهای درسی در مدارس آمريكا انجام گرفته، اين نتيجهی جالب حاصل شده كه با بالا رفتن كلاس، مقدار حشو در متن درسی كمتر میشود. يعنی به نظر میرسد كه كودك با افزايش سن و مهارتهای مطالعاتی، میتواند پيامهايی را با چگالش محتوای اطلاعاتی بيشتر جذب و درك كند. در كتاب كلاس اول، حشو برابر 41% بود كه با 9/1 بيت به ازای هرنماد برابر است. در كلاس آخر اين مقدار به 30% میرسيد،كه برابر است با 4/1 بيت برای هر نماد (Gatlin et al,1972).
ب: اطلاعات در سيستمهای زنده
مفهوم جديدی كه علم به اطلاعات بخشيده، در بيشتر شاخههای دانش اثربخش بوده است. اين تاثير به حدی بوده كه امروز ديگر اطلاعات را شكل سوم ماده میدانند. امروزه، در نظريه عمومی سيستمها، اجزای همه سيستمها را به سه دسته تقسيم میكنند: ماده، انرژی و اطلاعات. ماده، سازنده پيكره ملموس و پايای سيستم است و انرژی و اطلاعات به مثابه جريانهايی هستند كه مسير و اندازهشان رفتار سيستم را تعيين میكند. موجود زنده نيز، سيستمی پويا است كه در محيطی متغير میكوشد تا پايداری خود را حفظ كند. اين سيستم هم مانند ساير نظامهای پيچيده مادی از تأثير سه عنصر نامبرده بر هم تشكيل يافته است و رفتارش توسط ديناميك اين اجزا تعيين میشود. موجود زنده، كه به عنوان يك سيستم باز با ورود و خروج هميشگی ماده، انرژی و اطلاعات روبروست، از مكانيسمهايی پيچيده بهره میبرد تا دروندادها و بروندادهای خود را تنظيم كند. بهطور كلی میتوان اندركنش جاندار با محيطش را به سه گروه تقسيم كرد: اندركنش انرژيايی كه میتواند تاثير نيروی مكانيكی -مثل باد- گرانشی، گرمايی، و الكترومغناطيسی را در بر گيرد. اندركنش متابوليك يا تغذيهای كه با خوردن غذا و آب و تنفس و اثر سموم بر موجود مشخص میشود. و بالاخره اندركنش اطلاعاتی كه دو مقولهی ژنتيكی و حسی را شامل میشود. اين موضوع اخير، يعنی اندركنش اطلاعاتی، محور بحث اين بخش را تشكيل میدهد.
همه پيامهايی كه به عنوان اطلاعات حسی به موجود زنده میرسند، قبلا از يك فرستنده گسيل شدهاند. اين فرستنده میتواند موجود زنده ديگری باشد، و يا تنها از عوامل بيجان محيطی تشكيل يافته باشد. در صورت نخست، پيام را با همين عنوان رايج، پيام میناميم، و در حالت دوم آن را برگه میخوانيم (. (Seeley et al, 1989در هردو حالت، اطلاعات بايد از فرستنده به گيرنده منتقل شوند. اين فرآيند انتقال هميشه از ميان زمينهای انجام میگيرد كه بسته به محيط زيست موجود، میتواند هوا، آب، و يا خاك باشد. در هرسه حالت، وجود عوامل فيزيكی در زمينه میتواند بر روند انتقال اطلاعات اثر گذارد و نوفه ايجاد كند. مثلا نوفه، از عواملی است كه باعث تغيير پيام و كاهش دقت آن میشود.
انتقال اطلاعات بين دو موجود زنده را ارتباط هم مینامند. گروهی از پژوهشگران اين اصطلاح را تنها برای مواردی به كار میبرند كه فرستنده به عمد پيام را ارسال كند. من در اين نوشتار از اين تعريف پيروی خواهم كرد. ارتباطات را براساس اينكه از نظر توانايی سازش با محيط برای گيرنده سودمند باشند يا نباشد، و فرستندهی آن در گسيل آن عمد داشته باشد يا نداشته باشد، به چهار دسته تقسيم میكنند. در حالتی كه پيام برای گيرنده ارزش سازشی داشته باشد، و فرستنده هم آن را عمدا ايجاد كرده باشد، ارتباط وجود دارد. در حالتی كه پيام برای گيرنده نقش ضدسازشی داشته باشد، -يعنی سازگاريش را با محيط كمتر كند، و فرستنده آن را عمدا بفرستد، آن پيام را فريب مینامند مثل دروغ در آدميان، و پديده تقليد در جانوران . اگر فرستنده به طور غيرعمد پيام را بفرستد، و پيام ارزش سازشی داشته باشد، آن را انتقال تصادفی میگويند، مثل ديده شدن شكار توسط شكارچی. اگر فرستنده غيرعمد پيام دهد و ارزش سازشی پيام هم برای گيرنده منفی باشد، آن را خطای درك میخوانند -مثل خطاهای حسی معمولی.
در نظريهی عمومی سيستمها، و سيبرنتيك، مفهومی راهگشا وجود دارد كه فضای فاز ناميده میشود. اگر ما سيستمی پيچيده را در نظر بگيريم، و تمام عواملی را كه تغييرشان به تغيير رفتار سيستم منجر میشود شناسايی كنيم، میتوانيم فضايی چند بعدی را فرض كنيم، كه تعداد ابعاد آن با تعداد متغيرهای مؤثر در ديناميسم سيستم برابر باشد. در اين فضا، میتوان تغييرات هر متغير را با يك نقطه بر محور مختصات مربوطه نشان داد، و از آنجا كه شاخصهای تعيين كنندهی رفتار سيستم از اين محورها خارج نيستند، میتوان در هر مقطع زمانی، حالت سيستم را با يك نقطهی منفرد در اين فضای چند بعدی نمايش داد. اين فضا را در سيبرنتيك فضای فاز مینامند. ارزش اصلی آن در بحث ما، اين است كه میتوان به كمك آن برخی از مفاهيمی را كه مورد نظر است شرح داد.
میتوان به ازای هر موجود، و دستگاههای حسیای كه دارد، يك فضای فاز تعريف كرد، كه تعداد ابعادش برابر باشد با تعداد انواع حواس. يعنی میتوان برای هر موجود زندهای، دستگاه مختصاتی را در نظر گرفت كه دارای Nمحور باشد. اگر هريك از اين محورها، نمايانگر يكی از كيفيتهای حسی[9] باشد، میتوان به صورت نمادين درك موجود را در آن زمينه -در هر مقطع زمانی،- به صورت مجموعه نقاطی بر آن محور نمايش داد. به اين ترتيب ما فضايی N بعدی خواهيم داشت كه میتواند همه دريافتههای اطلاعاتی موجود از محيط را بازنمايی كند. اين فضا را در اينجا فضای فاز حسی خواهم ناميد. اين كار، يعنی فرض محور مختصات برای حواس را میتوان در مورد يك حس خاص هم انجام داد، و مثلا در دستگاه بينايی انسان فعاليت هريك از چهار نوع گيرنده نور شبكيه -سه نوع مخروط و يك استوانه را بر يك محور تصوير كرد و از متصل كردن اين محورها به هم، يك فضای فاز بينايی ايجاد كرد. به اين ترتيب اگر برای حس خاصی Nr نوع گيرنده وجود داشته باشد، و هر گيرنده هم بتواند در پاسخ به محرك خود Niحالت به خود بگيرد، در نهايت فضای فاز ما دارای N = Ni *Nr حالت خواهد بود. يعنی اگر تعداد حالات يك نوع گيرنده به صورت خطی تغيير كند، اطلاعات دريافت شده توسط موجود به شكل لگاريتمی تغيير خواهد كرد. به بيان ديگر، رابطه بين حجم اطلاعات قابلدريافت و تنوع گيرندهها و حالاتشان، با هم رابطه لگاريتمی دارند، نه خطی((Snyder,Laughgin,Stavevga, 1977.
روشی كه در اينجا برای مدلسازی ديناميك اطلاعات در سيستمهای زنده ارائه شده، راهی است شناخته شده در نظريه سيستمها و سيبرنتيك، و میتواند در بسياری از جاها مفيد باشد. با اين روش میتوان به سادگی ريخت اطلاعات را در هر مقطع زمان در هر موجودی، مجسم كرد. يك آدم كه دارد با دست در تاريكی دنبال چيزی میگردد، بر فضای فاز حسی خود دريافتههايی فراوان را در اطراف محور پساوايی نشان میدهد، كه مكان و ديناميكش در طول زمان به فعاليتی كه دارد انجام میگيرد بستگی دارد. در عين حال همين آدم در شرايطی كه دارد در ميان جمعيتی دنبال كسی میگردد، بر محور بينايی بيشترين دريافت را نشان میدهد. در اين مدل میتوان آسيبهای حسی گوناگون را به خوبی نمايش داد، مثلا يك آدم نابينا را میتوان فاقد محور بينايی در نظر گرفت. مقايسه بين موجودات مختلف با دستگاههای حسی گوناگون هم با اين مدل به خوبی ممكن است. مثلا میتوان به سادگی ديد كه در مسير تكامل، تعداد ابعاد و گسترهی محورهای مربوط به فضای فاز حس بينايی در مهرهداران از ماهيان تا پرندگان افزايش يافته و از فضای تكبعدی -تك محوری و كمدامنه پارامسی به فضايی با شش بعد -پنج نوع مخروط و يك نوع استوانه در لاكپشتان دريايی[10] رسيده.
برای تخمين حجمی از اطلاعات كه توسط هر حس، و در نهايت توسط موجود زنده دريافت میشود، روشهای گوناگونی وجود دارد. من در اينجا بر رويكردهايی كه در عصبشناسی مرسوم است بيشتر تاكيد خواهم كرد. بنابراين روش، مقدار اطلاعات دريافتی رابطه مستقيمی دارد با توانايی شليك نورونهای مربوط به حس مورد نظر. بنابر نظريه اطلاعات كلاسيك، بيشينه اطلاعات موجود در يك پيام، در حالتی به دست میآيد كه احتمال ظهور همه نمادهای بيانگر اطلاعات يكسان باشد. به بيان ديگر، اگر Hmaxرا به عنوان بيشينه اطلاعات در نظر بگيريم؛ Hmax=log2Nخواهد بود. حالا اگر بيشترين بسامد شليك يك نورون را با Fmaxنمايش دهيم، به اين معادله میرسيم: (Hmax=log2(tFmax+1 (Gatlin et al, 1977)
بنابر اين رويكرد، برای حواس مختلف انسان محتواهای اطلاعاتی متفاوتی به دست میآيد كه هر يك با رابطهای خطی، توان اطلاعاتی آن سيستم حسی يعنی توان جذب و انتقال اطلاعات را تعيين میكنند. توانهای اطلاعاتی مورد نظر، مطابق جدول صفحهی بعد به دست خواهد آمد.
توان اطلاعاتی حواس گوناگون در انسان
سرعت انتقال اطلاعات، علاوه بر سرعت توليدش، به پهنای باند انتقال پيام هم بستگی دارد. پهنای باند، عبارتست از وازهای كه بسامد پيام میتواند تغيير كند. در مورد آدم، تكلم عادی نياز به پهنای باندی در حدود 7كيلوهرتز دارد ( Meyer & Neumann. 1972) پهنای باند وسايل ارتباطی معمولی مثل راديو و تلفن از اين مقدار كمتر است. علت اينكه پيامهای فرستاده شده از راه تلفن و راديو هم درك میشود، اين است كه در زبان هم به موازات نظام الفبايی حشو وجود دارد.
توان اطلاعاتی در رسانههای عمومی
در جداول بالا، توان اطلاعاتی، كه همان سرعت انتقال اطلاعات است، از اين معادله به دست میآيد: (Rm = Blog2 (1+S/N
كه در آن Rm بيشينه اطلاعات منتقل شده -برحسب بيت بر ثانيه ، B ثابت وابسته به زمينه، S مقدار نماد معنی دار، و N مقدار نوفه است (Young et al, 1971,1981,1987)
حالا پايه تئوريك لازم برای تخمين كل اطلاعات موجود در يك موجود زنده را در اختيار داريم. شكستن هر مولكول ATP انرژیای آزاد میكند كه برای گرفتن 20بيت اطلاعات از محيط كافيست. اگر فرض كنيم اين فرآيند شكست دست بالا يك ثانيه طول بكشد، و اگر تنها يك صدم انرژی توليد شده در بدن يك آدم معمولی برای پردازش اطلاعات صرف شود، توان پردازش يك انسان برابر با 1020بيت بر ثانيه میشود. علاوه بر اين ظرفيت عملكردی اطلاعاتی، يك ظرفيت ساختاری اطلاعاتی هم وجود دارد. اين امر از پيچيدگی ساختار موجودات زنده ناشی میشود، و همارز مفهوم مبهمی است كه مدتها با عنوان نظم مورد بحث بوده. اگر بدن يك موجود زنده را يك محلول آبی كلوئيدی در نظر بگيريم، -كه در يك معنا چنين هم هست آنگاه میبينيم كه در هر مقطع زمان برای تعريف مكان دقيق هر اتم در اين محلول،به 1028بيت اطلاعات نياز داريم. مكان دقيق هريك از مولكولهای بدن يك انسان را میتوان با يك صدم اين اطلاعات، يعنی با 1026بيت بيان كرد (Carlow et al, 1976, Volkenstein et al, 1982).
میتوان به روش مشابهی، محتوای اطلاعاتی ژنوم انسان را هم محاسبه كرد. دربارهی تخمينهای به دست آمده در اين مورد بين پژوهشگران اتفاق نظر وجود دارد. مقدار اطلاعات موجود در ژنوم انسان -كه دارای صدهزار ژن است،- حدود 109بيت تخمين زده میشود. در مورد باكتریها اين مقدار به يك صدم، يعنی 107بيت میرسد(Carlowetal,1976).
موجود زنده، از يك ديدگاه، يك سيستم پردازندهی اطلاعات است، و برای بهينه كردن عملكردش بايد از ميان انبوه دادههای موجود در محيط، مهمترين پيامها را برگزيند. اين امر به ايجاد وازههای حسی گوناگونی منجر میشود. يعنی در هر دستگاه حسی، اطلاعات موجود در محيط تنها در دامنهی خاصی میتواند بر گيرندههای حسی موجود اثر كند. به همين دليل است كه در همهی جانداران شناخته شده، فضای فاز هر حس ويژه تنها محدودهی مشخصی را در برمیگيرد. تخمين اينكه در هر دستگاه حسی حجم دادههای اطلاعاتی چقدر است و اين دادهها با چه سرعتی پردازش میشوند، دشوار است، چون اين مقادير به چندين عامل ناشناخته بستگی دارند. اين مقادير در گونهها، دستگاهها، و نقاط گوناگون پردازنده در دستگاه عصبی مركزی مقادير مختلفی به خود میگيرند. در جدول زیر تخمينی از سرعت پردازش اطلاعات را در انسان میبينيد.
پ) نوفه و استراتژیهای درك
نوفه میتواند سه منشأ داشته باشد:
الف نوفههای وابسته به گيرنده: اين نوفه در اثر تغييرات فيزيكی كاتورهای اجزای گيرندهها ايجاد میشود. مثلا تغييرات دما و حركات موجود در گيرنده -حتی در سطح مولكولی،- باعث ايجاد نوفه میشود.
ب نوفههای وابسته به كانال: اين نوفهها در اثر تغييرات خود پيام ايجاد میشود. اين تغييرات معمولا در اثر ناهمگونی كانال انتقال پيام به وجود میآيد. مثلا در دستگاه بينايی، نوفهی اصلی كه در محيط نيمهتاريك وجود دارد، ناشی از نوسانات كاتورهای خود فوتونها در محيط است.
پ نوفههای وابسته به محيط: اين نوفهها، كه مهمترين در نوع خود هستند، در اثر رقابت پيامهای گوناگون موجود در محيط ايجاد میشوند. نوفههای وابسته به محيط بر خلاف ساير موارد حالت كاتورهای ندارد و تنها از اندركنش پيامهايی ناشی میشود كه در وازه حسی سيستم گيرنده میگنجند.
وجود اين دستههای گوناگون از نوفههای مختل كنندهی روند انتقال اطلاعات، موجودات زنده را به ابداع روشی وادار كرده است تا بتوانند تا حد امكان پيامها را از نوفهها تشخيص دهند. چنين روشی به تازگی توسط انسان هم دوباره كشف شده. تكنيك ياد شده، ابتدا به عنوان يك پاسخ برای نيازهای جانبی وابسته به اختراع رسانهها و رادارها مطرح شد (Selin et al,1965,Poor et al, 1988) و بعدها قالب نظريه رديابی[11] شهرت يافت.
مسئلهای كه بايد اين نظريه حل شود، چگونگی تشخيص نوفه از نماد است، در شرايط خاص. برای نيل به اين مقصود، بايد ابتدا مفهوم شرايط خاص دقيقتر تعريف شود. بنابراين لازم است معنی چند اصطلاح را روشن شود. جريان[12]، عبارت است از كل محركی كه توسط فرستنده توليد میشود. شدت محرك[13]، عبارت است از مقدار جريان محرك در واحد سطح مثلا برای نور و صوت ، يا در واحد حجم برای مواد شيميايی . اين چگالی جريان اطلاعات، برای سنجشهای آماری مربوط به اطلاعات حسی كميتی مهم و كليدی است. احتمال ظهور نوفه در پيامی با شدت مشخص، از توزيع نرمال گاوسی تبعيت میكند، يعنی خصلتی تصادفی دارد. برای جدا كردن نسبی نوفه از پيام، بايد حد آستانهای برای شدت پيام تعريف كنيم كه در بالای آن آستانه نوفه نداشته باشيم، ولی پيام داشته باشيم. اگر چنين آستانهای وجود داشته باشد، -كه معمولا وجود ندارد- تشخيص پيام از نوفه آسان است و تنها به يك سيستم سنجش شدت نياز است. اگر منحنی توزيع شدت نوفه با پيام تداخل نشان دهد، بهترين استراتژی اين است كه مرز ميان اين دو منحنی، آستانهی شدت فرض شود.
آنچه كه در اينجا گفته شد، تنها يك مرور كلی و ناقص بود از مسائلی كه در نظريه رديابی مطرح است. ناگفته پيداست كه واقعيات با مدل سادهای كه در اينجا برای استراتژیهای رديابی ارائه شد، تفاوت دارد. مهمترين تفاوت بين مدل ما با جهان طبيعی اين است كه در حالت اخير معمولا وجود يا عدم وجود نوفه و پراكندگيش مشخص نيست. بنابراين پردازش دادهها بر اساس شدت آستانه پيام ممكن نيست. اين امر در مورد بيشتر محركهای حسی آشنا در جهان انسانی هم صدق میكند، به ندرت میتوان با شنيدن يك صدای طبيعی در محيطی ساكت، وجود و يا عدم وجود نوفه را در آن تشخيص داد. مشكل دوم اين است كه معمولا در سيستمهای زنده خطر ناشی از ناديده گرفتن پيام، بيشتر از بهايی است كه جاندار برای پيام فرض كردن نوفه میپردازد. يك آهو اگر فرياد هشدار همنوعانش را ناديده انگارد ممكن است جانش را از دست بدهد. ولی بهايی كه با هشدار فرض كردن يك صدای طبيعی مشابه و بیربط میپردازد، تنها مقداری انرژی مثلا برای فرار بیمورد خواهد بود. يعنی در جهان جاندار، استراتژی مهم كمينه كردن خطر و بيشينه كردن شانس بقاست، نه كمينه كردن خطا و بيشينه كردن دقت.
با وجود اينكه نمیخواهم در اين نوشتار زياد در نكات فنی نظرياتی كه به آنها اشاره میكنم، وارد شوم، ولی ذكر فرمولی برای يافتن آستانه شدت را لازم میدانم. آستانهی شدت، در حالتی كه پراكنش نوفه و پيام باهم تداخل داشته باشند، از اين معادله محاسبه میشود:
It = [(I0 + Is/2) + Isd/ (Is – I0)] Ln [ 1-Ps C0Ps Cs]
كه در آن: It نشانگر آستانه شدت مورد نظر، I0نماد شدت فاقد پيام، Isبيانگر شدت دارای پيام، Isdعلامت انحراف استاندارد نوفه، Psمعرف احتمال حضور اوليه پيام، و C0و Csبه ترتيب نشاندهندهی بهايی هستند كه موجود در قبال اشتباه فرض كردن يك نوفه به جای پيام، و تشخيص پيام بايد بپردازد.
در معادله بالا، در صورتیكه بهای اشتباه در درك نوفه با خطر ناديده انگاشتن پيام برابر باشد C0 = Csو احتمال حضور اوليه پيام برابر 50 % باشد، شدت آستانه بر وسط منطقه تداخل منحنی شدت نوفه و پيام منطبق خواهد بود.
در نظريه رديابی يك كميت قراردادی اهميت زيادی دارد، و آن عبارتست از نسبت پيام موجود در يك محرك، به نوفه آن. اگر اين كميت برابر صفر باشد، بدان معناست كه محرك اطلاعاتی را در بر ندارد و بنابر اين موجود جاندار نمیتواند از آن سودی ببرد. اگر اين مقدار نزديك به يك باشد، درك اطلاعات از محرك ممكن است، ولی همواره با خطا همراه است و دقت آن وابسته به احتمال حضور اوليه پيام است. اگر نسبت پيام به نوفه خيلی بيشتر از يك شود، در آن حالت اطلاعات نهفته در محرك بالا خواهد بود و درك دقيق آن هم ممكن است.
برای پرهيز از طولانی شدن گفتار، اينجا از پرداختن به ساير معادلات مربوط به رديابی صرفنظر میكنم و به علاقمندان مطالعهی كتاب زيبای “بومشناسی حواس” ( (Dusenbery, 1992را توصيه میكنم.
- Equiprobablity ↑
- Syntactic ↑
- Semantic ↑
- Weiszacker ↑
- Brellouin ↑
- Collier ↑
- Moderately repetative genes ↑
- Kornberg ↑
- Sensory modality ↑
- Chelonia ↑
- Detection theory ↑
- Flux ↑
- Intensity ↑
ادامه مطلب: گفتار دوم: بررسی حواس اصلی
رفتن به: صفحات نخست و فهرست کتاب