پنجشنبه , آذر 22 1403

گفتار نخست: اطلاعات

گفتار نخست: اطلاعات

اندركنش موجود زنده با محيط پيرامون خود، چنانكه گفتيم اطلاعات ايجاد می‌‌‌كند. اطلاعات در معنای عام خود شكل سوم ماده است و به چينش عناصر سازنده‌‌‌ی يك سيستم مربوط می‌‌‌شود، ولی در اينجا، بيشتر معنای جريانی از القائات محيطی دگرگون كننده‌‌‌ی چينش درونی سيستم زنده را از آن اراده خواهم كرد. برای اطلاعات تعاريف فراوانی داده شده و برخی از آنها قابل‌‌‌قبولند. از آنجا كه هنوز به گمان من تعريف اين مفهوم در سيستم‌‌‌های زنده دقيق نيست، چندان به ريزه‌‌‌كاريهای تعريف اين مفهوم نخواهم پرداخت. از ميان رويكردهای رايجتر و راهگشاتر به اين مفهوم، چند مورد را ذكر می‌‌‌كنم و نقد كوتاهی هم بر آنها خواهم داشت. در نهايت بايد به اين نكته توجه كرد كه مفهوم پيچيدگی، نظم و اطلاعات هر سه با يكديگر مربوطند. با توجه به اهميتی كه مفهوم پيچيدگی در فلسفه‌‌‌ی من ايفا می‌‌‌كند، مفهوم اطلاعات نيز بايد به عنوان يك كليدواژه‌‌‌ی مهم در نظر گرفته شود. من در جای ديگری در مورد تعريف دقيقتر اطلاعات و رابطه‌‌‌ی آن با پيچيدگی خواهم نوشت، و بنابراين در اينجا از تكرار مكررات می‌‌‌پرهيزم. اهداف اساسی اين گفتار عبارت خواهند بود از: روشنتر كردن مفهوم اطلاعات. نشان دادن درجه‌‌‌ی اثرپذيری سيستم زنده از محيطش. روشهايی برای كمی كردن اين تاثيرات. بررسی دامنه‌‌‌ی اين اثرپذيری. و در نهايت مقايسه‌‌‌ی آنچه كه سيستم زنده درك می‌‌‌كند، با آنچه كه واقعا وجود دارد.

پيش از پرداختن به بحث، لازم می‌‌‌دانم برای دقيقتر شدن بحث، دو اصطلاح را تعريف كنم. در سيستم واژگانی كه از اين پس مورد استفاده قرار خواهم داد، واقعيت عبارت خواهد بود از آنچه كه در جهان خارج از ناظر می‌‌‌گذرد. يعنی آن جهان خارجی ناشناخته‌‌‌ای كه تنها وجود و حركت را در آن فرض گرفتيم، واقعيت خواهد بود. حقيقت در مقابل، برابر خواهد بود با برداشتی كه ناظر زنده از واقعيت خارجی دارد. حقيقت بازنمايی حركت موجود در جهان خارج -واقعيت- بر سيستم زنده خواهد بود. عده‌‌‌ای به من در مورد اين انتخاب واژگان ايراد كرده‌‌‌اند و برعكس آن را درست‌‌‌تر دانسته‌‌‌اند. به گمان من بحث بی‌‌‌مورد در مورد واژگان يكی از بيهوده‌‌‌ترين كارهايی است كه يك پژوهشگر می‌‌‌تواند انجام دهد. من با گفته‌‌‌ی آن انديشمند عصر نوزايی، موافق نيستم كه می‌‌‌گفت: فلسفه عبارت است از سوءاستفاده منظم از واژگانی كه برای اين كار ابداع شده‌‌‌اند.

با اين وجود، از آنجا كه درك نادرست اين دو واژه به فهم آنچه كه خواهم گفت لطمه می‌‌‌زند، در اينجا به اختصار می‌‌‌گويم كه واقعيت -از ريشه‌‌‌ی وقوع- چيزی است كه در فلسفه از ديرباز به عنوان امری مستقل از ناظر و مربوط به جهان خارج مطرح بوده. وقوع يك اتفاق، مستقل از ناظری است كه ممكن است آن را مشاهده كند. در برابر، حقيقت -از ريشه‌‌‌ی حق- چيزی است شخصی‌‌‌تر حق بسته به ديدگاه خاص هركس معنی می‌‌‌شود و لزوما دارای مصداق خارجی نيست. از اين رو مفهوم حقيقت از واقعيت درونی‌‌‌تر و ذهنی‌‌‌تر است. به همين دليل هم در كل اين واژگان را به اين ترتيب انتخاب كرده‌‌‌ام.

الف: مروری بر مفهوم اطلاعات

مفهوم واژه‌‌‌ی اطلاعات در نگاه نخست كاملا آشكار و واضح به نظر می‌‌‌رسد، ولی پاسخ دقيق به اين پرسش كه اطلاعات به راستی چيست، مدتهاست كه ذهن دانشمندان را به خود مشغول داشته است. اطلاعات، يكی از معدود مفاهيمی است كه پيش از تعريف شدن، به صورت كمّی تحليل شد، و اين عكس روال معمولی است كه در تاريخ علم شاهد آن هستيم. كمّی كردن مفاهيم و تحليل رياضی آنها، به درك عميقی از مفهومشان وابسته است، و بنابراين معمولا تعريف قبل از تحليل مشخص می‌‌‌شود. در بعضی موارد، اين اصل نقض می‌‌‌شود و مفاهيمی مبهم، به دليل اهميت كاربرديشان، زودتر از موعد شمارش‌‌‌پذير می‌‌‌شوند. اطلاعات، در اواسط قرن بيستم، توسط يك دانشمند فرانسوی به نام كلود شانون، در قالب نظريه اطلاعات به صورت كمّی درآمد. اين كار، همزمان با شكل‌‌‌گيری نخستين شبكه‌‌‌های مخابراتی و اطلاع‌‌‌رسانی انجام گرفت. چنانكه گفتيم، اين امر پاسخی بود پيش از موعد، به نياز مبرم تكنولوژی، كه به تدريج اطلاعات را در ابعاد وسيع به كار می‌‌‌گرفت. با وجود اينكه شانون در نظريه‌‌‌ی خود تعريفی برای اطلاعات ارائه كرده بود، ولی از آن هنگام تا به حال بين نظريه‌‌‌پردازان در مورد دقت و صحت اين تعريف، اختلاف نظر وجود دارد.

برای اطلاعات تعاريف فراوانی وجود دارد، و همين زياد بودن تعاريف، يكی از دلايل نادقيق بودن مفهوم آن است. من در اينجا بعضی از اين تعاريف را فهرست‌‌‌وار ذكر می‌‌‌كنم تا زمينه‌‌‌ی موضوع مشخص شود. خود شانون اطلاعات را به صورت معنايی نزديك به آنتروپی تعريف می‌‌‌كند و حتی در محاسبات خود، از معادلات مربوط به آنتروپی -برگرفته از قانون دوم ترموديناميك- بهره می‌‌‌برد. بنابراين تعريف، اطلاعات يك گزاره عبارت است از پيچيدگی روابط موجود بين اجزای آن. اگر يك مجموعه از احتمالات گسسته‌‌‌ی مكمل يكديگر را -مانند p1, p2, …pn – داشته باشيم، و اين مجموعه از احتمالات، حالت يك سيستم را مشخص كنند، آنگاه اطلاعات اين سيستم برابر خواهد بود با بيت‌‌‌هايی كه برای تعريف يكی از اين حالات -كه سيستم را معرفی می‌‌‌كند،- لازم است. يعنی اگر P عبارت باشد از كل احتمالات ممكن در مورد يك سيستم، و:{ P={ p1, p2, ….pn

آنگاه اطلاعات موجود در سيستم (H(p بر حسب بيت- برابر خواهد بود با: H(p)= – pi log pi

چنانكه می‌‌‌بينيد، اين معادله با برابری مربوط به آنتروپی در ترموديناميك كلاسيك همريخت است. شايد همين همريختی معادلات، منشأ اصلی اشتباه شانون در همتا گرفتن اين دو مفهوم بوده باشد. در صورتی كه چنين همتايی را بپذيريم، به اين نتيجه می‌‌‌رسيم كه يك سيستم، در حالتی كه احتمال بروز همه‌‌‌ی حالاتش با هم برابر باشد، دارای بيشينه‌‌‌ی اطلاعات ممكن است. يعنی در صورتی كه قاعده‌‌‌ی برابری امكانات[1] برقرار باشد p1= p2= …=pnآنگاه آنتروپی بيشينه خواهد شد، چون بی‌‌‌نظمی سيستم در بالاترين درجه‌‌‌ی خود خواهد بود. در عين حال، بر اساس معادله شانون خود اطلاعات و هم بيشينه خواهد بود و اين موردی است كه با بيشينه بودن بی‌‌‌نظمی همخوانی ندارد.

حشو، مفهوم مهم ديگری است كه همواره در نظريه اطلاعات در كنار خود مفهوم اطلاعات مطرح می‌‌‌شود. حشو به اين معناست كه يك پيام به طور خالص از نمادهای معنی‌‌‌دار و حاوی ارزش اطلاعاتی تشكيل نشده، بلكه برخی از اجزای آن حالت نوفه دارد و در انتقال اطلاعات نقشی را ايفا نمی‌‌‌كند. وجود اين عناصر اضافی، از يكسو به طول پيام می‌‌‌افزايد، بی آنكه ارزش اطلاعاتی آن را زياد كند، و از سوی ديگر احتمال خطا در فرآيند رمزگشايی را كاهش می‌‌‌دهد. مثلا مجسم كنيد معنايی مثل يك تاريخ، مثلا 1375می‌‌‌خواهد منتقل شود. می‌‌‌توان اين مفهوم را با چهار علامت عددی بيان كرد. در صورت اختلال در انتقال اين پيام كوتاه، مفهوم در كل آسيب زيادی می‌‌‌بيند. مثلا اگر يك علامت 3 به 6 تبديل شود، كل پيام تغيير می‌‌‌يابد و به‌‌‌صورت 1675 قلب می‌‌‌شود. در مقابل می‌‌‌توان همين پيام را به صورت هزار و سيصد و هفتاد و پنج هم نوشت، در اين حالت، به جای چهار علامت عددی، 21 نماد الفبايی مورد استفاده قرار گرفته. يعنی طول پيام بدون تغيير در معنا زياد شده، ولی در مقابل مصونيت پيام در مقابل تغييرات هم بالا رفته است، و ديگر تغيير يك حرف -مثلا ن به م- كل پيام را دگرگون نمی‌‌‌كند. يعنی گيرنده به احتمال زياد خواهد توانست معنای درست هزارو سيصد و هفتاد و پمج را دريابد. وجود نوفه چگالی اطلاعات بر نماد را در پيام كم می‌‌‌كندو چون در فن مخابرات فرستادن هر نماد با صرف انرژی همراه است، بهترين پيام، كم حشوترين پيغام محسوب می‌‌‌شود.

با توجه به اينكه شانون برای شركتهای بزرگ مخابراتی كار می‌‌‌كرده و تمركز كارش بر پيامهای كدبندی شده‌‌‌ی انسانی بوده، می‌‌‌توان ديد كه تعريف مورد نظر او برای بسياری از سيستم‌‌‌های ديگر قابل تعميم نيست. مثلا نمی‌‌‌توان تعاريف مورد نظر او را در مورد سيستم‌‌‌های غيرگزاره‌‌‌ای به كار برد. در اين سيستم‌‌‌ها، آشكار است كه وجود اطلاعات هم‌‌‌ارز كم شدن بی‌‌‌نظمی و به هم خوردن تعادل بين احتمالات است. ايرادی كه ذكر شد، به تعريف شانون از حشو هم وارد است. در اينجا هم حشو از همين تعريف نادرست اطلاعات ناشی می‌‌‌شود.

بنابر نظر شانون، اگر برابری امكانات در يك سيستم به هم بخورد، يعنی اگر برابری بين امكانات مختلف موجود برای حالت سيستم نقض شود، حشو زاده می‌‌‌شود. وجود حشو به زعم شانون باعث كاهش اطلاعات مفيد در سيستم می‌‌‌شود. بر مبنای همين تعاريف، آزمايشها و سنجشهای فراوانی در مورد سيستم‌‌‌های مشهور كدگذاری پيامها انجام شده، و مثلا در اين ميان ساختارهای زبانی طبيعی هم زياد مورد بررسی قرار گرفته‌‌‌اند.

پس از بنيانگذاری نظريه اطلاعات (. (Shanon & Weaver, 1949بسياری از دانشمندان ديگر كوشيدند تا اين تعاريف و معادلات را اصلاح كنند و آن را به صورت ابزاری كارآمد برای تحليلی سيستم‌‌‌های پيچيده درآورند. شانون در تئوری اوليه‌‌‌ی خود، اطلاعات را تنها به دستوربندی جملات و گزاره‌‌‌ها مربوط كرده‌‌‌بود و همين امر يكی از مهمترين ايرادات كار او را تشكيل می‌‌‌داد. چرا كه در يكی از برداشتهايی كه از اين صورتبندی اطلاعات انجام می‌‌‌شد، دو جمله، -يكی با معنا و ديگری بی‌‌‌معنا- كه طول يكسانی داشتند، دارای محتوای اطلاعاتی يكسانی در نظر گرفته می‌‌‌شدند. برای رفع اين مشكل، محققان بعدی سطوحی را برای اطلاعات تعريف كردند. سطح ابتدايی را كه همان سطح دستوری[2] بود، مربوط به روابط بين اجزای جمله -مانند واژگان- دانستند، و سطح بعدی را سطح معنايی[3] ناميدندكه به ساختار معنايی ناشی از اجزای جمله مربوط می‌‌‌شد. بعدها سطح ديگری هم به اين دو افزوده شد و آن هم سطح كاربردی بود كه تنها به اثر پيام بر گيرنده وابسته بود. هرچه اثر دگرگونكنندگی پيام بر رفتار گيرنده يا فرستنده بيشتر باشد، اطلاعات اين سطح هم بيشتر خواهد بود. وایتساکر[4] كه يكی از پيشگامان نظريه اطلاعات است، مفهوم مورد نظر مارا به اين ترتيب تعريف می‌‌‌كند: هرچيزی كه فهميده شود، اطلاعات است.

او به اين ترتيب اطلاعات را در سيستمی متشكل از گيرنده و فرستنده تعريف می‌‌‌كند، و مفهوم اطلاعات در خلأ را غيرقابل‌‌‌قبول می‌‌‌داند. همچنين رفتارشناس بزرگی مانند ویلسون هم به همين ترتيب اطلاعات را تعريف می‌‌‌كند. او اطلاعات را با مفهوم ارتباط پيوسته می‌‌‌داند، و اطلاعات -پيام- را چيزی می‌‌‌داندكه از فرستنده‌‌‌ای به گيرنده‌‌‌ای منتقل می‌‌‌شود و الگوی احتمالاتی رفتار آن را به شكلی دگرگون می‌‌‌كند. البته خود او به ايرادات و موارد نقض اين تعريف اشاره دارد، ولی برای كاربردهای خاص مورد نظر خود، آن را مناسب می‌‌‌بيند. Wilson, 1995)).

بریلون[5] بر مفهوم شانون اطلاعات انتقادات بسياری وارد كرده و آن را فاقد مصداق فيزيكی و خارجی می‌‌‌داند. بنابر نظر او، تعريف سنتی از اطلاعات، تفاوتی در ميان حالات رفتاری خرد و كلان عناصر سازنده‌‌‌ی يك سيستم قائل نمی‌‌‌شوند. اين تمايز، در تحليل هم‌‌‌افزايی بسيار كاربرد دارد. من در جايی ديگر در اين مورد خواهم نوشت و ديگر در اينجا زياد در موردش شرح نمی‌‌‌دهم. با توجه به ايراداتی كه اين پژوهشگر بر شانون وارد كرده، بايد مفهوم اطلاعات شانونی را همتای معكوس اطلاعات فيزيكی دانست. چون با بی‌‌‌نظمی -آنتروپی- رابطه‌‌‌ی مستقيم دارد.

اشخاص ديگری مانند کولیه[6] كوشيده‌‌‌اند تا اطلاعات را بر اساس نظم موجود در ساختار سيستم‌‌‌های فيزيكی تعريف كنند. بر اين اساس، اطلاعات برابر خواهد بود با بيت‌‌‌های لازم برای تعريف چينش آرايه‌‌‌های خاص سازنده‌‌‌ی يك سيستم Collier et al, 1986,1988)). بر اين مبنا، آنتروپی و اطلاعات معانی متضادی با هم پيدا خواهند كرد. يكی ديگر از افرادی كه كوشيده‌‌‌اند تا اطلاعات را بر اساس ساختار درونی و فيزيكی سيستم‌‌‌ها تعريف كنند، زيست‌‌‌شناسی به نام بروکس است، كه با همكاری وایلی كتابی زيبا نوشته و اطلاعات را در سيستم‌‌‌های پيچيده‌‌‌ی فيزيكی براساس ساختار درونی سيستم و سلسله مراتب كاركردی آن تعريف كرده (Wiley & Brooks, 1988). اين تعريف اخير بسيار مورد توجه من است، اما به دليل اينكه پرداختن به آن ما را به حيطه‌‌‌ی تحليل سيستم‌‌‌های پيچيده وارد می‌‌‌كند و از بحث جاری دور می‌‌‌سازد، واردش نمی‌‌‌شوم.

در نهايت، چيزی كه مورد نظر بود، آشنايی مقدماتی با مفهوم اطلاعات، و مباحثی بود كه در اين مورد جريان دارد. گمان می‌‌‌كنم اين آشنای حاصل شده باشد. خواننده می‌‌‌تواند برای ورود به بحثی دقيقتر در مورد اطلاعات، و تعاريف مورد نظر من، -كه با اندكی تفاوت با ديدگاه اخير ياد شده يكسان است،- به رساله‌‌‌ای كه در مورد هم‌‌‌افزايی نوشته‌‌‌ام، مراجعه كند.

چنانكه ديديد، تعريف مشترك مورد قبول همه‌‌‌ی دانشمندان برای اطلاعات وجود ندارد. با اين وجود همه ديدگاهی مبهم در مورد معنی اين واژه دارند. برای روشن‌‌‌تر شدن مفهوم مورد بحث، مثالی كمی می‌‌‌تواند كارساز باشد، چرا كه در اين مورد نظرها يكسان است. اطلاعات، از نظر محاسباتی، عبارتست از تعداد بيت‌‌‌هايی كه برای بيان وضعيت دقيق يك پيام لازم است. اگر يك مفهوم اطلاعاتی چندين حالت داشته باشد، تعداد عناصر مجموعه‌‌‌ای از صفر و يك‌‌‌ها كه لازم است تا يكی از اين حالات از بقيه متمايز شود، اطلاعات مربوط به آن حالت است. مثلا الفبای فارسی در كل 84نماد دارد. مشتمل بر حروف بزرگ و كوچك و ميانه و علايم نقطه‌‌‌گذاری. اگر بخواهيم از ميان اين مجموعه 84 عضوی يكی را انتخاب كنيم، بايد به اندازه log2 84 = 6/5بيت اطلاعات صرف كنيم. به بيان ديگر در زبان فارسی، محتوای اطلاعاتی هر نماد 5/6 بيت است. چون بيت مفهومی دودويی است، در محاسبات نمی‌‌‌توان مقدار اعشاری به آن نسبت داد. بنابراين در محاسبات اين مقدار را معمولا برابر با 7بيت می‌‌‌گيرند. به همين ترتيب در زبان انگليسی، می‌‌‌توان 64نماد الفبايی را تشخيص داد، كه با log2 64 = 6 بيت برابر است. از روی مثال‌‌‌هايی كه ذكر شد، به سادگی می‌‌‌توان معادله‌‌‌ای را پيش‌‌‌بينی كرد كه مقدار اطلاعات را بر حسب بيت به دست دهد. اين معادله عبارت است از:

H = in Pi log2 Pi

كه در آن Piبرابر است با احتمال ظهور هريك از nنماد موجود در پيام.

به عنوان مثال‌‌‌هايی ديگر در اين مورد، می‌‌‌توان به كد ژنتيكی موجودات زنده اشاره كرد. می‌‌‌دانيم كه يك رمز ژنتيكی از توالی خطی اسيدهای نوكلئيكی تشكيل يافته كه تنها چهار نوع باز آلی را می‌‌‌توانند شامل شوند. به اين ترتيب محتوای اطلاعاتی هر واحد كد ژنتيكی برابر می‌‌‌شود با -بيت بر نماد .log2 4 = 2 در اينجا هر نماد عبارت است از يك اسيد نوكلئيك. با توجه به اين اندازه‌‌‌گيری، می‌‌‌توان حجم اطلاعاتی نهفته در ژنوم گونه‌‌‌هايی را كه مقدار مواد وراثتی‌‌‌شان معلوم است، اندازه گرفت. مثلا ژنوم ويروس كوچك SV40نوعی ويروس ميمونهای Simian تنها از پنج هزار جفت باز آلی تشكيل شده. به بيان ديگر، حجم اسيد نوكلئيك موجود در اين ويروس برابر 5 kbp تقريبا معادل 1012*3 دالتون می‌‌‌باشد (واتسون, .1374). با توجه به اين كه هر جفت باز آلی دارای 2بيت اطلاعات می‌‌‌باشند، حجم كلی اطلاعات نهفته در ژنوم اين ويروس 5000*2= 10000بيت خواهد بود. يا مثلا بزرگی ژنوم كُلی باسيل Escherechia coli كه مقيم روده‌‌‌ی بزرگ همه‌‌‌ی ما آدمهاست، 4000 kbp است واتسون, .1374يعنی محتوای اطلاعاتی‌‌‌اش برابر است با 4*106*2= 106*8 بيت. اين باكتری ياد شده، دارای چهار هزار ژن است و كل DNAاش در حالت كشيده يك ميليمتر طول دارد. حالا آن را با ژنوم انسان مقايسه كنيد كه دارای سی هزار ژن است و در حالت كشيده 173سانتی‌‌‌متر طول دارد (گالين, 1372). آشكار است كه با پيچيده‌‌‌تر شدن سيستم زنده، محتوای اطلاعاتی نهفته در ژنوم آن نيز افزايش می‌‌‌يابد.

می‌‌‌توان همين مثال را در يك سطح بالاتر و در حد اسيدهای آمينه و پروتئينها تكرار كرد. می‌‌‌دانيم كه در كل 20نوع اسيد آمينه‌‌‌ی اصلی داريم كه بيش از 95% از ساختار پروتئينها را می‌‌‌سازند. رفتار يك ماكرومولكول پروتئينی توسط توالی و تعداد اين اسيدهای آمينه تعيين می‌‌‌شود. هر پروتئين هم مستقل از شكل فضای خاص خود كه مربوط به نيروهای فيزيكوشيميايی ويژه‌‌‌ی اجزايش است، می‌‌‌تواند به صورت يك توالی خطی از اسدهای آمينه نمايش داده شود. ما ژنوم را جمله‌‌‌ای در نظر گرفتيم با طول‌‌‌های متفاوت وابسته به پيچيدگی گونه، كه با الفبايی چهار حرفی نوشته شده است. به همين ترتيب می‌‌‌توانيم پروتئينها را هم جملاتی مشابه بدانيم كه با بيست حرف نوشته شده‌‌‌اند. با چنين فرضی، محتوای اطلاعاتی هر اسيد آمينه تقريبا برابر با log2 20= 4/2 بيت خواهد بود.

حالا به اين مثال دقت كنيد:

مولكول هموگلوبين انسان، از چهار رشته‌‌‌ی پلی‌‌‌پپتيدی تشكيل شده است. اين چهار رشته، عبارتند از دو رشته‌‌‌ی آلفا و دو رشته‌‌‌ی بتا. هر رشته‌‌‌ی آلفا، از 141اسيد آمينه تشكيل شده. يعنی محتوای اطلاعاتی آن عبارت است از 141* 2/4= 2/592 بيت. اين رشته‌‌‌ی پلی‌‌‌پپتيدی توسط قطعه‌‌‌ای از ژنوم كد می‌‌‌شود كه 643جفت باز دارد. هر اسيد آمينه توسط سه جفت باز كد می‌‌‌شود و اين ژن خاص دارای دو اينترون به طولهای 95و 125جفت باز هم هست (Tamarine, 1993).

به اين ترتيب مقدار اطلاعات نهفته در ژن رشته‌‌‌ی آلفا برابر است با 643 * 2 = 1286بيت. يعنی محتوای اطلاعاتی ژن كننده‌‌‌ی رشته‌‌‌ی آلفا، چيزی در حدود دو برابر اطلاعات نهفته در خود آن رشته است.

اين زياد بودن محتوای اطلاعاتی ژنوم نسبت به محصولات پروتئينی، دو جنبه دارد. يكی مربوط به خود اينترون‌‌‌هاست، كه در فرآيند ترجمه و كدبندی كردن پروتئين‌‌‌ها شركت نمی‌‌‌كنند. ديگری مربوط می‌‌‌شود به اين حقيقت كه هر اسيد آمينه توسط سه اسيد نوكلئيك كد می‌‌‌شود. علت مورد نخست معلوم نيست و وجود اين همه بازآلی بی‌‌‌فايده در ژنوم يوكاريوت‌‌‌ها هنوز از معماهای ژنتيك است. اما مورد دوم قابل‌‌‌پاسخگويی است. اين زياد بودن محتوای ژنومی نسبت به نتايج پروتئينی، در اصل نوعی حشو است. اين نوع از حشو، به ويژه در جاهايی كه قرار است اطلاعات از چند سيستم نمادين مختلف بگذرند و چندبار ترجمه شوند، نقشی حياتی را بر عهده دارد و آن هم جلوگيری از قلب شدن پيام و ايجاد خطاست. می‌‌‌بينيم كه مكانيسمها تكاملی چنين حشوی را در ژنوم موجودات به خوبی جاسازی كرده‌‌‌اند. نمود ديگر اين حشو، زياد بودن تعداد نسخه‌‌‌های ژنهای مربوط به پروتئينهای حياتی است. گروهی از ژنها در ياخته‌‌‌ها شناسايی شده‌‌‌اند كه در سطح ژنوم مرتبا تكرار می‌‌‌شوند. اين ژنها كه ژنهای با توالی متوسط[7] خوانده می‌‌‌شوند، می‌‌‌توانند در كل 105تا 103بار تكرار شوند. مثلا برخی از ژنهای ساختمانی مهم مانند ژن هيستون‌‌‌ها، rRNAو tRNA از اين گروه محسوب می‌‌‌شوند. به دليل همين فراوانی حشو در سطح ژنوم است كه می‌‌‌بينيم در هر روند همانندسازی، احتمال بروز خطا تنها 11 –10-7 – 10 است (واتسون, 1374).

در ژنوم مهره‌‌‌داران حالتی ديگر از حشو ديده می‌‌‌شود. در اين موجودات، احتمال اينكه يك باز آلی كه به طور كاتوره‌‌‌ای انتخاب شده، گوانين يا سيتوزين باشد، 40-44% است. يعنی احتمال حضور اين دو باز در ژنوم برابر است با 2+- 42 % كه نيمی از آن مربوط به گوانين و نيم ديگر مربوط به سيتوزين است. همبستگی بين احتمال حضور اين دو باز نوعی حشو در ژنوم مهره‌‌‌داران ايجاد می‌‌‌كند. از آنجا كه بيشينه حشو ژنومی موجود در مهره‌‌‌داران كمتر از بيشينه مقدار مشابه در ميان بی‌‌‌مهرگان است، می‌‌‌توان به زبان نظريه بازی‌‌‌ها، استراتژی مهره‌‌‌داران را در طول مسير تكامليشان به اين شكل بيان كرد: .MinMax= D Max

يعنی اين جانوران بالاترين مقدار حشو ژنومی خود را كمينه كرده‌‌‌اند و به اين ترتيب محتوای اطلاعاتی ژنوم خود را زياد كرده‌‌‌اند. مطالعات كورنبرگ[8] نشان داده است كه در مورد كمينه مقدار حشو ژنومی وضعيت برعكس است و كمينه حشو ژنومی در ميان مهره‌‌‌داران از كميت مشابه در بی‌‌‌مهرگان بيشتر است. در اين مورد می‌‌‌توان استراتژی را به صورت (MinMax= D(Minنشان داد. يعنی بيشينه كردن كمينه حشو. نمونه‌‌‌های متعددی از حشو در ژنوم موجودات زنده كشف شده است كه نمونه بارز آن توالی‌‌‌های تكراری موجود در انتهای كروموزوم‌‌‌ها است. حتی در موجوداتی به سادگی ويروس‌‌‌ها هم اين توالی‌‌‌ها ديده می‌‌‌شوند. مثلا در ويروس موزاييك توتون اين توالی به صورت تكراری ديده می‌‌‌شود: A-GAA-GAA-GUU-GUU ناگفته پيداست كه توالی‌‌‌های حشوی ژنی نقش عملكردی ندارند و هيچ mRNA و پروتئين خاصی را كد نمی‌‌‌كنند.

در مورد حشو، مثالهای ديگری هم می‌‌‌توان زد. مثلا در زمينه‌‌‌ی زبانشناسی در اين مورد زياد كار شده. در اينجا فقط به دو نمونه از اين موارد اشاره می‌‌‌كنم:

الف: در زبان انگليسی كه از 27نماد -به طور ساده- تشكيل يافته، محتوای اطلاعاتی هر نماد بايد بر اساس فورمولی كه گفتيم برابر با 7/4 بيت بر نماد باشد، ولی از آنجا كه در زبان انگليسی 58% حشو وجود دارد، محتوای اطلاعاتی واقعی هر نماد تنها 2بيت است. معنای اين كه گفتيم 58% زبان انگليسی حشو است، اين است كه اين نسبت از سؤالات با پاسخ‌‌‌های دودويی را می‌‌‌توان برای درك يك پيام حذف كرد. به بيان ديگر، اگر در يك نامه به زبان انگليسی 58 % حروف حذف شوند، هنوز هم می‌‌‌توان به مضمون نامه پی برد.

ب: در بررسی‌‌‌هايی كه برروی كتاب‌‌‌های درسی در مدارس آمريكا انجام گرفته، اين نتيجه‌‌‌ی جالب حاصل شده كه با بالا رفتن كلاس، مقدار حشو در متن درسی كمتر می‌‌‌شود. يعنی به نظر می‌‌‌رسد كه كودك با افزايش سن و مهارت‌‌‌های مطالعاتی، می‌‌‌تواند پيام‌‌‌هايی را با چگالش محتوای اطلاعاتی بيشتر جذب و درك كند. در كتاب كلاس اول، حشو برابر 41% بود كه با 9/1 بيت به ازای هرنماد برابر است. در كلاس آخر اين مقدار به 30% می‌‌‌رسيد،كه برابر است با 4/1 بيت برای هر نماد (Gatlin et al,1972).

ب: اطلاعات در سيستم‌‌‌های زنده

مفهوم جديدی كه علم به اطلاعات بخشيده، در بيشتر شاخه‌‌‌های دانش اثربخش بوده است. اين تاثير به حدی بوده كه امروز ديگر اطلاعات را شكل سوم ماده می‌‌‌دانند. امروزه، در نظريه عمومی سيستم‌‌‌ها، اجزای همه سيستم‌‌‌ها را به سه دسته تقسيم می‌‌‌كنند: ماده، انرژی و اطلاعات. ماده، سازنده پيكره ملموس و پايای سيستم است و انرژی و اطلاعات به مثابه جريان‌‌‌هايی هستند كه مسير و اندازه‌‌‌شان رفتار سيستم را تعيين می‌‌‌كند. موجود زنده نيز، سيستمی پويا است كه در محيطی متغير می‌‌‌كوشد تا پايداری خود را حفظ كند. اين سيستم هم مانند ساير نظام‌‌‌های پيچيده مادی از تأثير سه عنصر نامبرده بر هم تشكيل يافته است و رفتارش توسط ديناميك اين اجزا تعيين می‌‌‌شود. موجود زنده، كه به عنوان يك سيستم باز با ورود و خروج هميشگی ماده، انرژی و اطلاعات روبروست، از مكانيسم‌‌‌هايی پيچيده بهره می‌‌‌برد تا درون‌‌‌دادها و برون‌‌‌دادهای خود را تنظيم كند. به‌‌‌طور كلی می‌‌‌توان اندركنش جاندار با محيطش را به سه گروه تقسيم كرد: اندركنش انرژيايی كه می‌‌‌تواند تاثير نيروی مكانيكی -مثل باد- گرانشی، گرمايی، و الكترومغناطيسی را در بر گيرد. اندركنش متابوليك يا تغذيه‌‌‌ای كه با خوردن غذا و آب و تنفس و اثر سموم بر موجود مشخص می‌‌‌شود. و بالاخره اندركنش اطلاعاتی كه دو مقوله‌‌‌ی ژنتيكی و حسی را شامل می‌‌‌شود. اين موضوع اخير، يعنی اندركنش اطلاعاتی، محور بحث اين بخش را تشكيل می‌‌‌دهد.

همه پيام‌‌‌هايی كه به عنوان اطلاعات حسی به موجود زنده می‌‌‌رسند، قبلا از يك فرستنده گسيل شده‌‌‌اند. اين فرستنده می‌‌‌تواند موجود زنده ديگری باشد، و يا تنها از عوامل بيجان محيطی تشكيل يافته باشد. در صورت نخست، پيام را با همين عنوان رايج، پيام می‌‌‌ناميم، و در حالت دوم آن را برگه می‌‌‌خوانيم (. (Seeley et al, 1989در هردو حالت، اطلاعات بايد از فرستنده به گيرنده منتقل شوند. اين فرآيند انتقال هميشه از ميان زمينه‌‌‌ای انجام می‌‌‌گيرد كه بسته به محيط زيست موجود، می‌‌‌تواند هوا، آب، و يا خاك باشد. در هرسه حالت، وجود عوامل فيزيكی در زمينه می‌‌‌تواند بر روند انتقال اطلاعات اثر گذارد و نوفه ايجاد كند. مثلا نوفه، از عواملی است كه باعث تغيير پيام و كاهش دقت آن می‌‌‌شود.

انتقال اطلاعات بين دو موجود زنده را ارتباط هم می‌‌‌نامند. گروهی از پژوهشگران اين اصطلاح را تنها برای مواردی به كار می‌‌‌برند كه فرستنده به عمد پيام را ارسال كند. من در اين نوشتار از اين تعريف پيروی خواهم كرد. ارتباطات را براساس اينكه از نظر توانايی سازش با محيط برای گيرنده سودمند باشند يا نباشد، و فرستنده‌‌‌ی آن در گسيل آن عمد داشته باشد يا نداشته باشد، به چهار دسته تقسيم می‌‌‌كنند. در حالتی كه پيام برای گيرنده ارزش سازشی داشته باشد، و فرستنده هم آن را عمدا ايجاد كرده باشد، ارتباط وجود دارد. در حالتی كه پيام برای گيرنده نقش ضدسازشی داشته باشد، -يعنی سازگاريش را با محيط كمتر كند، و فرستنده آن را عمدا بفرستد، آن پيام را فريب می‌‌‌نامند مثل دروغ در آدميان، و پديده تقليد در جانوران . اگر فرستنده به طور غيرعمد پيام را بفرستد، و پيام ارزش سازشی داشته باشد، آن را انتقال تصادفی می‌‌‌گويند، مثل ديده شدن شكار توسط شكارچی. اگر فرستنده غيرعمد پيام دهد و ارزش سازشی پيام هم برای گيرنده منفی باشد، آن را خطای درك می‌‌‌خوانند -مثل خطاهای حسی معمولی.

در نظريه‌‌‌ی عمومی سيستم‌‌‌ها، و سيبرنتيك، مفهومی راهگشا وجود دارد كه فضای فاز ناميده می‌‌‌شود. اگر ما سيستمی پيچيده را در نظر بگيريم، و تمام عواملی را كه تغييرشان به تغيير رفتار سيستم منجر می‌‌‌شود شناسايی كنيم، می‌‌‌توانيم فضايی چند بعدی را فرض كنيم، كه تعداد ابعاد آن با تعداد متغيرهای مؤثر در ديناميسم سيستم برابر باشد. در اين فضا، می‌‌‌توان تغييرات هر متغير را با يك نقطه بر محور مختصات مربوطه نشان داد، و از آنجا كه شاخصهای تعيين كننده‌‌‌ی رفتار سيستم از اين محورها خارج نيستند، می‌‌‌توان در هر مقطع زمانی، حالت سيستم را با يك نقطه‌‌‌ی منفرد در اين فضای چند بعدی نمايش داد. اين فضا را در سيبرنتيك فضای فاز می‌‌‌نامند. ارزش اصلی آن در بحث ما، اين است كه می‌‌‌توان به كمك آن برخی از مفاهيمی را كه مورد نظر است شرح داد.

می‌‌‌توان به ازای هر موجود، و دستگاه‌‌‌های حسی‌‌‌ای كه دارد، يك فضای فاز تعريف كرد، كه تعداد ابعادش برابر باشد با تعداد انواع حواس. يعنی می‌‌‌توان برای هر موجود زنده‌‌‌ای، دستگاه مختصاتی را در نظر گرفت كه دارای Nمحور باشد. اگر هريك از اين محورها، نمايانگر يكی از كيفيت‌‌‌های حسی[9] باشد، می‌‌‌توان به صورت نمادين درك موجود را در آن زمينه -در هر مقطع زمانی،- به صورت مجموعه نقاطی بر آن محور نمايش داد. به اين ترتيب ما فضايی N بعدی خواهيم داشت كه می‌‌‌تواند همه دريافته‌‌‌های اطلاعاتی موجود از محيط را بازنمايی كند. اين فضا را در اينجا فضای فاز حسی خواهم ناميد. اين كار، يعنی فرض محور مختصات برای حواس را می‌‌‌توان در مورد يك حس خاص هم انجام داد، و مثلا در دستگاه بينايی انسان فعاليت هريك از چهار نوع گيرنده نور شبكيه -سه نوع مخروط و يك استوانه را بر يك محور تصوير كرد و از متصل كردن اين محورها به هم، يك فضای فاز بينايی ايجاد كرد. به اين ترتيب اگر برای حس خاصی Nr نوع گيرنده وجود داشته باشد، و هر گيرنده هم بتواند در پاسخ به محرك خود Niحالت به خود بگيرد، در نهايت فضای فاز ما دارای N = Ni *Nr حالت خواهد بود. يعنی اگر تعداد حالات يك نوع گيرنده به صورت خطی تغيير كند، اطلاعات دريافت شده توسط موجود به شكل لگاريتمی تغيير خواهد كرد. به بيان ديگر، رابطه بين حجم اطلاعات قابل‌‌‌دريافت و تنوع گيرنده‌‌‌ها و حالاتشان، با هم رابطه لگاريتمی دارند، نه خطی((Snyder,Laughgin,Stavevga, 1977.

روشی كه در اينجا برای مدلسازی ديناميك اطلاعات در سيستم‌‌‌های زنده ارائه شده، راهی است شناخته شده در نظريه سيستم‌‌‌ها و سيبرنتيك، و می‌‌‌تواند در بسياری از جاها مفيد باشد. با اين روش می‌‌‌توان به سادگی ريخت اطلاعات را در هر مقطع زمان در هر موجودی، مجسم كرد. يك آدم كه دارد با دست در تاريكی دنبال چيزی می‌‌‌گردد، بر فضای فاز حسی خود دريافته‌‌‌هايی فراوان را در اطراف محور پساوايی نشان می‌‌‌دهد، كه مكان و ديناميكش در طول زمان به فعاليتی كه دارد انجام می‌‌‌گيرد بستگی دارد. در عين حال همين آدم در شرايطی كه دارد در ميان جمعيتی دنبال كسی می‌‌‌گردد، بر محور بينايی بيشترين دريافت را نشان می‌‌‌دهد. در اين مدل می‌‌‌توان آسيب‌‌‌های حسی گوناگون را به خوبی نمايش داد، مثلا يك آدم نابينا را می‌‌‌توان فاقد محور بينايی در نظر گرفت. مقايسه بين موجودات مختلف با دستگاه‌‌‌های حسی گوناگون هم با اين مدل به خوبی ممكن است. مثلا می‌‌‌توان به سادگی ديد كه در مسير تكامل، تعداد ابعاد و گستره‌‌‌ی محورهای مربوط به فضای فاز حس بينايی در مهره‌‌‌داران از ماهيان تا پرندگان افزايش يافته و از فضای تك‌‌‌بعدی -تك محوری و كم‌‌‌دامنه پارامسی به فضايی با شش بعد -پنج نوع مخروط و يك نوع استوانه در لاك‌‌‌پشتان دريايی[10] رسيده.

برای تخمين حجمی از اطلاعات كه توسط هر حس، و در نهايت توسط موجود زنده دريافت می‌‌‌شود، روش‌‌‌های گوناگونی وجود دارد. من در اينجا بر رويكردهايی كه در عصب‌‌‌شناسی مرسوم است بيشتر تاكيد خواهم كرد. بنابراين روش، مقدار اطلاعات دريافتی رابطه مستقيمی دارد با توانايی شليك نورون‌‌‌های مربوط به حس مورد نظر. بنابر نظريه اطلاعات كلاسيك، بيشينه اطلاعات موجود در يك پيام، در حالتی به دست می‌‌‌آيد كه احتمال ظهور همه نمادهای بيانگر اطلاعات يكسان باشد. به بيان ديگر، اگر Hmaxرا به عنوان بيشينه اطلاعات در نظر بگيريم؛ Hmax=log2Nخواهد بود. حالا اگر بيشترين بسامد شليك يك نورون را با Fmaxنمايش دهيم، به اين معادله می‌‌‌رسيم: (Hmax=log2(tFmax+1 (Gatlin et al, 1977)

بنابر اين رويكرد، برای حواس مختلف انسان محتواهای اطلاعاتی متفاوتی به دست می‌‌‌آيد كه هر يك با رابطه‌‌‌ای خطی، توان اطلاعاتی آن سيستم حسی يعنی توان جذب و انتقال اطلاعات را تعيين می‌‌‌كنند. توانهای اطلاعاتی مورد نظر، مطابق جدول صفحه‌‌ی بعد به دست خواهد آمد.

توان اطلاعاتی حواس گوناگون در انسان

سرعت انتقال اطلاعات، علاوه بر سرعت توليدش، به پهنای باند انتقال پيام هم بستگی دارد. پهنای باند، عبارتست از وازه‌‌‌ای كه بسامد پيام می‌‌‌تواند تغيير كند. در مورد آدم، تكلم عادی نياز به پهنای باندی در حدود 7كيلوهرتز دارد ( Meyer & Neumann. 1972) پهنای باند وسايل ارتباطی معمولی مثل راديو و تلفن از اين مقدار كمتر است. علت اينكه پيام‌‌‌های فرستاده شده از راه تلفن و راديو هم درك می‌‌‌شود، اين است كه در زبان هم به موازات نظام الفبايی حشو وجود دارد.

توان اطلاعاتی در رسانه‌‌‌های عمومی

در جداول بالا، توان اطلاعاتی، كه همان سرعت انتقال اطلاعات است، از اين معادله به دست می‌‌‌آيد: (Rm = Blog2 (1+S/N

كه در آن Rm بيشينه اطلاعات منتقل شده -برحسب بيت بر ثانيه ، B ثابت وابسته به زمينه، S مقدار نماد معنی دار، و N مقدار نوفه است (Young et al, 1971,1981,1987)

حالا پايه تئوريك لازم برای تخمين كل اطلاعات موجود در يك موجود زنده را در اختيار داريم. شكستن هر مولكول ATP انرژی‌‌‌ای آزاد می‌‌‌كند كه برای گرفتن 20بيت اطلاعات از محيط كافيست. اگر فرض كنيم اين فرآيند شكست دست بالا يك ثانيه طول بكشد، و اگر تنها يك صدم انرژی توليد شده در بدن يك آدم معمولی برای پردازش اطلاعات صرف شود، توان پردازش يك انسان برابر با 1020بيت بر ثانيه می‌‌‌شود. علاوه بر اين ظرفيت عملكردی اطلاعاتی، يك ظرفيت ساختاری اطلاعاتی هم وجود دارد. اين امر از پيچيدگی ساختار موجودات زنده ناشی می‌‌‌شود، و هم‌‌‌ارز مفهوم مبهمی است كه مدتها با عنوان نظم مورد بحث بوده. اگر بدن يك موجود زنده را يك محلول آبی كلوئيدی در نظر بگيريم، -كه در يك معنا چنين هم هست آنگاه می‌‌‌بينيم كه در هر مقطع زمان برای تعريف مكان دقيق هر اتم در اين محلول،به 1028بيت اطلاعات نياز داريم. مكان دقيق هريك از مولكول‌‌‌های بدن يك انسان را می‌‌‌توان با يك صدم اين اطلاعات، يعنی با 1026بيت بيان كرد (Carlow et al, 1976, Volkenstein et al, 1982).

می‌‌‌توان به روش مشابهی، محتوای اطلاعاتی ژنوم انسان را هم محاسبه كرد. درباره‌‌‌ی تخمين‌‌‌های به دست آمده در اين مورد بين پژوهشگران اتفاق نظر وجود دارد. مقدار اطلاعات موجود در ژنوم انسان -كه دارای صدهزار ژن است،- حدود 109بيت تخمين زده می‌‌‌شود. در مورد باكتری‌‌‌ها اين مقدار به يك صدم، يعنی 107بيت می‌‌‌رسد(Carlowetal,1976).

موجود زنده، از يك ديدگاه، يك سيستم پردازنده‌‌‌ی اطلاعات است، و برای بهينه كردن عملكردش بايد از ميان انبوه داده‌‌‌های موجود در محيط، مهم‌‌‌ترين پيام‌‌‌ها را برگزيند. اين امر به ايجاد وازه‌‌‌های حسی گوناگونی منجر می‌‌‌شود. يعنی در هر دستگاه حسی، اطلاعات موجود در محيط تنها در دامنه‌‌‌ی خاصی می‌‌‌تواند بر گيرنده‌‌‌های حسی موجود اثر كند. به همين دليل است كه در همه‌‌‌ی جانداران شناخته شده، فضای فاز هر حس ويژه تنها محدوده‌‌‌ی مشخصی را در برمی‌‌‌گيرد. تخمين اينكه در هر دستگاه حسی حجم داده‌‌‌های اطلاعاتی چقدر است و اين داده‌‌‌ها با چه سرعتی پردازش می‌‌‌شوند، دشوار است، چون اين مقادير به چندين عامل ناشناخته بستگی دارند. اين مقادير در گونه‌‌‌ها، دستگاه‌‌‌ها، و نقاط گوناگون پردازنده در دستگاه عصبی مركزی مقادير مختلفی به خود می‌‌‌گيرند. در جدول زیر تخمينی از سرعت پردازش اطلاعات را در انسان می‌‌‌بينيد.

پ) نوفه و استراتژی‌‌‌های درك

نوفه می‌‌‌تواند سه منشأ داشته باشد:

الف نوفه‌‌‌های وابسته به گيرنده: اين نوفه در اثر تغييرات فيزيكی كاتوره‌‌‌ای اجزای گيرنده‌‌‌ها ايجاد می‌‌‌شود. مثلا تغييرات دما و حركات موجود در گيرنده -حتی در سطح مولكولی،- باعث ايجاد نوفه می‌‌‌شود.

ب نوفه‌‌‌های وابسته به كانال: اين نوفه‌‌‌ها در اثر تغييرات خود پيام ايجاد می‌‌‌شود. اين تغييرات معمولا در اثر ناهمگونی كانال انتقال پيام به وجود می‌‌‌آيد. مثلا در دستگاه بينايی، نوفه‌‌‌ی اصلی كه در محيط نيمه‌‌‌تاريك وجود دارد، ناشی از نوسانات كاتوره‌‌‌ای خود فوتون‌‌‌ها در محيط است.

پ نوفه‌‌‌های وابسته به محيط: اين نوفه‌‌‌ها، كه مهم‌‌‌ترين در نوع خود هستند، در اثر رقابت پيام‌‌‌های گوناگون موجود در محيط ايجاد می‌‌‌شوند. نوفه‌‌‌های وابسته به محيط بر خلاف ساير موارد حالت كاتوره‌‌‌ای ندارد و تنها از اندركنش پيام‌‌‌هايی ناشی می‌‌‌شود كه در وازه حسی سيستم گيرنده می‌‌‌گنجند.

وجود اين دسته‌‌‌های گوناگون از نوفه‌‌‌های مختل كننده‌‌‌ی روند انتقال اطلاعات، موجودات زنده را به ابداع روشی وادار كرده است تا بتوانند تا حد امكان پيام‌‌‌ها را از نوفه‌‌‌ها تشخيص دهند. چنين روشی به تازگی توسط انسان هم دوباره كشف شده. تكنيك ياد شده، ابتدا به عنوان يك پاسخ برای نيازهای جانبی وابسته به اختراع رسانه‌‌‌ها و رادارها مطرح شد (Selin et al,1965,Poor et al, 1988) و بعدها قالب نظريه رديابی[11] شهرت يافت.

مسئله‌‌‌ای كه بايد اين نظريه حل شود، چگونگی تشخيص نوفه از نماد است، در شرايط خاص. برای نيل به اين مقصود، بايد ابتدا مفهوم شرايط خاص دقيقتر تعريف شود. بنابراين لازم است معنی چند اصطلاح را روشن شود. جريان[12]، عبارت است از كل محركی كه توسط فرستنده توليد می‌‌‌شود. شدت محرك[13]، عبارت است از مقدار جريان محرك در واحد سطح مثلا برای نور و صوت ، يا در واحد حجم برای مواد شيميايی . اين چگالی جريان اطلاعات، برای سنجش‌‌‌های آماری مربوط به اطلاعات حسی كميتی مهم و كليدی است. احتمال ظهور نوفه در پيامی با شدت مشخص، از توزيع نرمال گاوسی تبعيت می‌‌‌كند، يعنی خصلتی تصادفی دارد. برای جدا كردن نسبی نوفه از پيام، بايد حد آستانه‌‌‌ای برای شدت پيام تعريف كنيم كه در بالای آن آستانه نوفه نداشته باشيم، ولی پيام داشته باشيم. اگر چنين آستانه‌‌‌ای وجود داشته باشد، -كه معمولا وجود ندارد- تشخيص پيام از نوفه آسان است و تنها به يك سيستم سنجش شدت نياز است. اگر منحنی توزيع شدت نوفه با پيام تداخل نشان دهد، بهترين استراتژی اين است كه مرز ميان اين دو منحنی، آستانه‌‌‌ی شدت فرض شود.

آنچه كه در اينجا گفته شد، تنها يك مرور كلی و ناقص بود از مسائلی كه در نظريه رديابی مطرح است. ناگفته پيداست كه واقعيات با مدل ساده‌‌‌ای كه در اينجا برای استراتژی‌‌‌های رديابی ارائه شد، تفاوت دارد. مهم‌‌‌ترين تفاوت بين مدل ما با جهان طبيعی اين است كه در حالت اخير معمولا وجود يا عدم وجود نوفه و پراكندگيش مشخص نيست. بنابراين پردازش داده‌‌‌ها بر اساس شدت آستانه پيام ممكن نيست. اين امر در مورد بيشتر محرك‌‌‌های حسی آشنا در جهان انسانی هم صدق می‌‌‌كند، به ندرت می‌‌‌توان با شنيدن يك صدای طبيعی در محيطی ساكت، وجود و يا عدم وجود نوفه را در آن تشخيص داد. مشكل دوم اين است كه معمولا در سيستم‌‌‌های زنده خطر ناشی از ناديده گرفتن پيام، بيشتر از بهايی است كه جاندار برای پيام فرض كردن نوفه می‌‌‌پردازد. يك آهو اگر فرياد هشدار همنوعانش را ناديده انگارد ممكن است جانش را از دست بدهد. ولی بهايی كه با هشدار فرض كردن يك صدای طبيعی مشابه و بی‌‌‌ربط می‌‌‌پردازد، تنها مقداری انرژی مثلا برای فرار بی‌‌‌مورد خواهد بود. يعنی در جهان جاندار، استراتژی مهم كمينه كردن خطر و بيشينه كردن شانس بقاست، نه كمينه كردن خطا و بيشينه كردن دقت.

با وجود اينكه نمی‌‌‌خواهم در اين نوشتار زياد در نكات فنی نظرياتی كه به آنها اشاره می‌‌‌كنم، وارد شوم، ولی ذكر فرمولی برای يافتن آستانه شدت را لازم می‌‌‌دانم. آستانه‌‌‌ی شدت، در حالتی كه پراكنش نوفه و پيام باهم تداخل داشته باشند، از اين معادله محاسبه می‌‌‌شود:

It = [(I0 + Is/2) + Isd/ (Is – I0)] Ln [ 1-Ps C0Ps Cs]

كه در آن: It نشانگر آستانه شدت مورد نظر، I0نماد شدت فاقد پيام، Isبيانگر شدت دارای پيام، Isdعلامت انحراف استاندارد نوفه، Psمعرف احتمال حضور اوليه پيام، و C0و Csبه ترتيب نشان‌‌‌دهنده‌‌‌ی بهايی هستند كه موجود در قبال اشتباه فرض كردن يك نوفه به جای پيام، و تشخيص پيام بايد بپردازد.

در معادله بالا، در صورتی‌‌‌كه بهای اشتباه در درك نوفه با خطر ناديده انگاشتن پيام برابر باشد C0 = Csو احتمال حضور اوليه پيام برابر 50 % باشد، شدت آستانه بر وسط منطقه تداخل منحنی شدت نوفه و پيام منطبق خواهد بود.

در نظريه رديابی يك كميت قراردادی اهميت زيادی دارد، و آن عبارتست از نسبت پيام موجود در يك محرك، به نوفه آن. اگر اين كميت برابر صفر باشد، بدان معناست كه محرك اطلاعاتی را در بر ندارد و بنابر اين موجود جاندار نمی‌‌‌تواند از آن سودی ببرد. اگر اين مقدار نزديك به يك باشد، درك اطلاعات از محرك ممكن است، ولی همواره با خطا همراه است و دقت آن وابسته به احتمال حضور اوليه پيام است. اگر نسبت پيام به نوفه خيلی بيشتر از يك شود، در آن حالت اطلاعات نهفته در محرك بالا خواهد بود و درك دقيق آن هم ممكن است.

برای پرهيز از طولانی شدن گفتار، اينجا از پرداختن به ساير معادلات مربوط به رديابی صرف‌‌‌نظر می‌‌‌كنم و به علاقمندان مطالعه‌‌‌ی كتاب زيبای “بوم‌‌‌شناسی حواس” ( (Dusenbery, 1992را توصيه می‌‌‌كنم.

 

 

  1. Equiprobablity
  2. Syntactic
  3. Semantic
  4. Weiszacker
  5. Brellouin
  6. Collier
  7. Moderately repetative genes
  8. Kornberg
  9. Sensory modality
  10. Chelonia
  11. Detection theory
  12. Flux
  13. Intensity

 

 

ادامه مطلب: گفتار دوم: بررسی حواس اصلی

رفتن به: صفحات نخست و فهرست کتاب