هادی احمدی (سروش):

ذهن آدم‌ها متن را بهتر می‌خواند و پردازش می‌کند یا هوش مصنوعی؟
وقتی متنی را می‌خوانی (مثلاً یک داستان)، مغزت همزمان چند تا کار می‌کند:
- خوانش کلمات.
- تطبیق معنی کلمات با دانش قبلی‌ات.
- فهم روابط بین کلمات و جملات (مثلاً کی به کی ربط دارد).
- ارتباط گرفتن یا همذات‌پنداری.
- حتی ممکن است وسطش به یک خاطره یا ایده دیگر پرت شوی(خاطره‌بازی).
این یعنی مغزت کل متن را یکجا می‌بیند و فقط خط به خط جلو نمی‌رود حتی اگر خط به خط رمانی را بخوانی!
×××
مغز معمولاً سراغ توجه انتخابی یا (Attention) می‌رود؛ یعنی روی بخش‌های مهم متن بیشتر تمرکز می‌کند. مثلاً توی یک پاراگراف، اگر یک کلمه‌ی تازه، محرک یا عجیب ببیند شبیه"سکس" که همه دوستش دارند(!) بیشتر به آن توجه می‌کند و سپس در پی ارتباط این کلمه با سایر کلمات می‌گردی!
ازطرفی مغزت موقع خواندن، اطلاعاتی که قبلاً یاد گرفتی (مثل معنی کلمات یا تجربه‌های زندگی) را با متن جدید ترکیب می‌کند.
همچنین قادرست همزمان متن را خلاصه و حتی پیش‌بینی کند که ادامه‌اش چه خواهد شد؟ یا حتی اگر متن ناقص باشد یا ایراد املایی داشته باشد اصلاح کرده و معنی‌ درست را حدس می‌زند.
علاوه بر این مغز فقط متن را نمی‌‌خواند؛ صدا، تصویر، و احساسات مرتبط با آنرا هم پردازش می‌کند(پردازش چندوجهی). مثلاً اگر بخوانی "لیمو ترش"، آب دهنت راه می‌افتد!
×××
اینها را حتماً می‌دانستید اما شاید ندانید که کدام معماری AI به ذهن آد‌مها نزدیک‌ترست.
تاکنون دو مدل کپی از مغز عرضه شده.
مدل: RNN/LSTM (شبکه‌های بازگشتی):مدل‌های قدیمی‌تری‌اند که متن را ترتیبی (کلمه به کلمه) پردازش می‌کردندبی‌آنکه چندان به حافظه بسپارند.
و مدل معماری Transformer که پشت ابزارهایی مثل (Grok) و ChatGPT هستند و متن را یکجا و موازی و بُرداری پردازش می‌کنند.
حتی مدل‌های جدیدتر (نظیر: Mamba یا RetNet): درحال عرضه است که نسخه‌های پیشرفته‌تری‌اند که سعی دارند حافظه و سرعت بهتری داشته باشند.
با این حال همکنون معماری Transformer نزدیک به ذهن آدمی است.
این معماری در سال 2017 با مقاله‌ی تحت عنوان: "Attention is All You Need" معرفی شد که برخی از رفتارهای ذهنی گفته شده در ابتدای متنم را شبیه‌سازی می‌کند.
با این‌حال هنوز کامل شبیه ذهن نیست و با وجود شباهت‌ها، Transformer هنوز از ذهن انسان خیلی فاصله دارد؛ بدلیل:
- حافظه محدود
- عدم چندوجهی بودن کامل
- عدم وجود خلاقیت و شهود
- مصرف انرژی بالا-که بجای یک وات، هزاران وات برق مصرف می‌کند برای پردازش یک چیز کوچک!
×××
درست است که ما سرعت و حجم انبوه اطلاعات را یکجا نداریم؛ اما ذهن تو خیلی پیچیده‌ترست، چون خلاقیت، حافظه‌ی بلندمدت، همذات‌پنداری احساسی و پردازش چندوجهی و حتی غافل‌گیری را دارد که هیچ AI هنوز بدان نرسیده و معماری Transformer و حتی پیشرفته‌تر از آن نظیر: RetNet فقط یک تقلید خوب، کورکورانه از یکی از بخش‌های مغز توست!
×××
قدر مغزت را بدان! تو یک دیتاسنتر زنده و کم‌مصرفی!
بجای استفاده‌ی صرف از AI سعی کن ماهیچه‌های مغزت را تقویت کنی!
www.Soroushane.ir


0 0 رای
امتیازت به این مطلب؟
عضویت در سایت
اطلاع رسانی
guest

0 نظر
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
error: لینک های همرسانی مطلب در سمت چپ صفحه هست دوست داشتی به اشتراک بگذار!
0
نظرت مهمه حتماً بنویس!x