شماره 316: کتاب چگونه در جهان هوشمند زرنگ بمانیم؟

پادکست دکتر مکری
تیر 1401

شماره 316: بحثی درباره ی کتاب چگونه در جهان هوشمند زرنگ بمانیم؟

پادکست دکتر آذرخش مکری
شماره 316: بحثی درباره ی کتاب چگونه در جهان هوشمند زرنگ بمانیم؟
Loading
/

متن پادکست

بله ساعت 09:04 دقیقه 15 ام تیرماه است و با یک برنامه زنده دیگه در خدمت شما علاقه‌مندان عزیز هستم، تشکر دارم از پیگیری شما، امروز می‌خوایم یک کتاب دیگه رو به بحث بگذاریم به نام: How to stay smart in smart word?”” قبل‌از این‌که بحث رو شروع کنم، راجع ‌به live هفته گذشته صحبت کنم والا راستشو بخواین خودمم نمی‌دونم چه‌جوری شده که اگر شما از فیلترشکن استفاده کنید یا از خارج ایران وصل شید مشکلی نیست و قسمت دوم پیروزی های تجربه رو خواهید داشت ولی هم دوستانی که از داخل وصل می‌شن، نمی‌دونم آیا اشکال اینستاگرام هست،چی هست نشون نمیده! البته آمارش در بالای صفحه هست، یعنی اینکه تعداد پست‌هام می‌خونه، یعنی اون هست ولی قابل رؤیت برای اون‌هایی که از داخل هستن نیست، پس راه‌حلش اینه که یا از وی پی ان، فیلترشکن باید استفاده کنید یا این‌که میتونید تو جاهای دیگه مثل تلگرام یا یوتیوب اونو دنبالش کنی، چون من سعی می‌کنم همین فایل رو هم فوراً توی اون یکی شبکه‌های اجتماعی هم بزارم چون نمی‌دونیم این برنامه از کجا نشأت میگیره و چرا از بعضی کشورها و بعضی جهات قابل‌مشاهده نیست؟ خب اگه موافق باشید برنامه‌ی امشب رو شروع کنیم اینم کتاب جالبیه امیدوارم بتونم تو همین جلسه به اون جمع‌بندی نهاییش برسم، کتابی است و به‌نظر من بسیار ارزشمند! و تعجب می‌کنم که کارهای Gred Gigerenzer توی ایران خیلی شناخته ‌شده نیست! ظاهراً ترجمه نشده خیلی از کاراش، این کتابی که خدمتتون هستم How to stay smart in smart word?”” چگونه در یک جهان هوشمند، باهوش و زرنگ بمانیم؟ من فکر کردم درست دوتا smart بکار برده ولی اسمارتی که برای ما هست بیشتر معنیش اینه سرمون کلاه نره، حواس‌مون باشه گو‌مون نزنن، فریبمون ندن و مارو توی تله نندازن و از اون طرف اون smart world دوم بیشتر به‌همین smart phone و شبکه‌های هوشمند و هوش مصنوعی و اینا برمی‌گرده پس دوتا smart ها شاید لازم باشه در ترجمه فارسی به دو لغت مختلف ترجمه بشه. Gred Gigerenzer آلمانی هست، مدتی در Max planck institesفعالیت می‌کرد، روان‌شناس هست و استاد روان‌شناسی بوده و الان یک مقدار اتاق فکرها و مؤسسات خصوصی و نیمه‌دولتی رو اداره میکنه، نکته‌ای که راجع ‌به Gred Gigerenzer هست اینه که چند کتاب خیلی مشهور داره ولی همونطور که عرض کردم خیلی جای تعجبه که در ایران خیلی مورد استقبال یا قرار نگرفته یا من اطلاع ندارم اگر ترجمه شده، دوستان به من اطلاع بدن یکی از کتاب‌هاش که تقریباً یک کار کلاسیک و شاهکار هست بنام ” “simple heuristis that make us smart مال 1999 ولی جزء کتاب‌های بسیار پراستناده و اصولاً میشه گفت یک جریان فکری رو Gred Gigerenzer با این‌ کتابش ایجاد کرد حالا من راجع‌به این توضیح میدم چون برای این‌که این کتاب رو بفهمید لازمه که اون کتاب 1999 اش رو مختصری خدمتتون بگم. یه کتاب 2007 دیگه هم داره که ظاهراً اونم ترجمه نشده و هر دوی اینا کتابای خوبی اند منتها نمی‌دونم کسی بخواد 1999 رو ترجمه بکنه آیا فرصت عرضه اش و مخاطبش هست یا نه ولی کتاب بسیار خوبی است. کتاب دوم او مال 2007 بنام gut feelings” ” گات می‌دونید به معنی اعما و احشا هست، این ترجمه تحت ‌اللفظیش چیز جالبی نمیشه، میشه احساس شکمی ولی بیشتر منظورش احساس درونی است، چون ادامه‌ی عنوان کتاب میگه : the intelligence of the unconscious میشه گفت درواقع هوش ناخودآگاه! حالا در این دو کتاب چه چیزی رو میگه، قبل‌از این‌که توضیح بدم این heuristis هم از اون چیزاییه که ما نمیتونیم خوب ترجمش بکنیم یعنی معادل خوبی براش نداریم، بعضی‌ها گفتن بش بگیم یافتار! حالا این چی هست و منظور Gred Gigerenzer از اینا چی بوده؟ الان مختصر خدمتتون می‌گم: ببینید به‌صورت سنتی ما این باور رو داریم هرچی اطلاعات‌مون زیادتر بشه، هرچی پردازشمون عمیق‌تر بشه، هرچقدر آلگوریتم ما هوشمندانه‌تر و پیچیده‌تر بشه احتمالاً ما عقلانی‌تر تصمیم میگیریم و تصمیماتمون بهتر خواهد بود! منتها Gred Gigerenzer معتقده نه همیشه! میگه اگر جهان قوانین مشخص و قابل‌پیش‌بینی و دقیق داشته باشه اون عرض من درسته ولی نکته‌ای که هست اینه که خب ما توی نجوم قوانین دقیق داریم توی بخشی از مکانیک نیوتن قوانین دقیق داریم مثلاً تو همین کتاب 2022 اش چگونه در جهان هوشمند زرنگ بمانیم، میگه آره! اون مریخ‌نورد و اینا یا اونا در واقع سفینه‌هایی که می‌فرستند حتی به ونوس، به ناهید و اینا این‌قدر دقیقه که دقیقاً در موعد مقرر به مدار میرسه یا فرود میاد و این ناشی از الگوریتم‌های خیلی دقیقه! پس در جهانی که پایداره! دقیق و میشه گفت قوانین حاکم بر او خیلی از عدم قطعیت پیروی نمیکنه، کاملاً درسته! هرچقدر ما عمیق‌تر بیندیشیم، اطلاعات بیشتری جمع کنیم الگوریتم‌ها و دستورالعمل‌هامون دقیق‌تر باشه، بهتره میگه ولی جهان انسانی این‌گونه نیست، جهان انسانی پر عدم قطعیته! پر پیش‌بینی نشده هاست، پر اموریه که از اصول منطق به‌ظاهر پیروی نمی‌کنند، یعنی ما قوانین حاکم برش به‌درستی نمی‌دونیم، در همین کتاب یه جایی از Richard feynman یک گزاره، یک نقل‌قول میاره، میگه شانس آوردیم الکترون ها هیجان و اینا ندارندد! راست میگه دیگه اگر الکترون هم می‌خواست هیجانی باشه و اراده داشته باشه برا خودش تصمیم می‌گرفت که نه! من الان عصبانی شدم، حوصله ندارم، قسمت زیادی از الکترونیک و فیزیک و برق و مهندسی زیر سوال می‌رفت و این سؤال و حالا صحبتش اینه: میگه گاهی در سیستم‌های انسانی که درواقع سیستم‌های پیش‌بینی ناپذیراند، پر از وقایع عدم قطعیت هستند یا به قول نسیم طالب که Gigerenzer به او استناد میکنه پر از قوهای سیاه هستند، یعنی وقایعی که قابل پیش‌بینی نشده بودند و می‌اومدن! در اون صورت گاهی افزایش اطلاعات شما و پردازش دقیق‌تر و منطقی‌تر شما جواب غلط میده! و شما رو گمراه میکنه، باید از قوانین ساده، خودمونی و سرانگشتی Rule of thumb پیروی کنید که اینا رو بهش میگن heuristis، حالا این heuristis رو چه‌جوری کشف کرد؟ مثلاً اومده بود دیده بود که وقتی از دانشجویان یا مردم آمریکا راجع ‌به جمعیت شهرهای آلمان می‌پرسم، خود Gigerenzer آلمانیه! از اونا می‌پرسن که مثلاً کُن بزرگ‌تره یا مونیخ؟ نمی‌دونم هامبورگ بزرگ‌تر یا فرانکفورت؟ یه چیز عجیب متوجه شده بود امریکایی ها که اصولاً در دنیا مورد تمسخر قرار میگیرند به بی‌سوادی، به‌خصوص از اینکه اطلاعاتشون از خارج آمریکا کمه! بهتر از جوانان آلمانی جواب داده بودن و او سوال داشت که چرا این اتفاق افتاده؟ و بعد وقتی نگاه کرده بود دیده بود که آمریکایی‌ها اطلاعات ندارندد که جمعیت چقدره؟ همین‌جوریه از قوانین احساسی یا اصطلاحاً میگیم همین احساس درونی‌شون پیروی می‌کردند مثلاً فرض کن یه شهری اگر تیم فوتبال داره، تیم ورزشی مشهور داره به گوش ما خورده و آشناست و وقتی‌که این آشنا بود طرف گفته پس لابد جمعیت این بیشتره و معمولاً درست درمیاد! یه شهری که بزرگ‌تر هست معمولاً! نه هم همیشه! این قانون وجود قطعی نداره ولی معمولاً تیم ورزشی موفق‌تری هم داره و او از روی آشنا بودن اسم تیم ورزشی اش به این نتیجه رسیده بود که جمعیت این شهر بیشتره! یعنی درواقع از یک یافتار یا heuristis ساده پیروی کرده بود. یه heuristis خیلی قشنگی رو تو همین کتاب، این کتاب 2022 اش، اشاره میکنه و اونم اینه بهش میگن یافتار دایره یا circule heuristis میگه یه جا، دو جا در واقع! سرقت انجام‌شده، کجا دنبال قاتل بگرده؟ دنبال سارق بگردیم؟ عذر می‌خوام درمورد قتلم درسته! هر دوی اینا میشه! دو جا جرم مرتکب شدند مثلا شما فکر کن! یکیش توی تهران پارس است، یکیش تویی مثلاً نارمک است، احتمالی که محل سکونت اون مجرم کجا باشه، کجا دنبالش بگردیم خب میگه یکسری الگوریتم‌های خیلی پیچیده هوش مصنوعی ابداع شده که سعی کنه محل اون رو پیدا کنه از روی نوع ابزار سرقت، طرز سرقت، ساعت سرقت و اینا و بعد کلی محاسبه انجام میده و از داده‌های بزرگ پیروی میکنه مثلاً میگه احتمالاً در این نقاط شهر اون طرف! ولی میگه نه! متوجه شدن شما میتونی با یک یافتار یا heuristis ساده اونو پیداش کنی، دو تا نقطه رو می‌ذاری دو سر یک قطر! قطر دایره‌، یه دایره رسم می‌کنی، به‌احتمال زیاد محل زندگی اون فرد اون توعه! حالا این برای دوستانی که اگر تو کار پلیس و اینا هستن و دارند این برنامه رو گوش میدن نکته اگر دنبال یک نفر می‌گردی مجرمه و می‌خوای ببینی خونه‌اش کجاست؟ یک سارقه؟ چی هست؟ دو تا محل سرقت رو به‌هم وصل کن، یه دایره بکش اون رو قطرش.. به احتمال زیاد توی اون دایره زندگی میکنه، به‌همین سادگی! به این‌ها میگن یافتارهای ساده! حالا این میگه که در سیستم‌های انسانی خیلی مواقع استفاده کردن از این یافته‌ها یا heuristis های ساده ارجح است به پیچیدگی! حالا این بحث کتابش رو با این مبحث شاید شروع کنیم، بد نباشه! پس این یه خلاصه ای میشه از اون دو کتاب قبلیش و در اون کتاب gut feelings احساسات درونی که گفتم: نگیم احساسات شکمی! میگه درواقع بخشی از این ناخودآگاه پردازش میشه! شما دقت کردید یه جاییی هست اطلاعات خیلی زیاده! ولی یه عده میان میگن نه به دلم نمی‌شینه! احساس می‌کنم یه جای کار می‌لنگه! کار این آدم نیست یا مثلاً این نمی‌تونه سارق باشه! این نمی‌تونه قاتل باشه! این نمی‌تونه درست باشه یا این بیزینسی که شما میگی درست درنمیاد یه جاییش ایراد داره! من نمی‌دونم چیه؟ تمام جداول آمارش درسته، تمام اصول حسابداریش درسته ولی به دل من نمیشه! و او دیده بود خیلی مواقع درست درمیاد! یعنی به دل من نمی‌شینه انقدرم دست‌کم نگیریمش! حالا بحث خودش را در این کتاب جدید ادامه میده می‌خوایم به این بپردازیم پس ببینید یه چالش خیلی جدی در علوم اعصاب و علوم رفتاری هست، اینم براتون بگم که تقریباً میشه گفت به قول امروزی‌ها این اصطلاح زاویه ‌داره! این با Daniel Kahneman و Teversky پس دارای زاویه میشه! یعنی او معتقده خیلی از چیزهایی که Daniel Kahneman می‌دونید اون درواقع برنده‌ی جایزه‌ی نوبل در اقتصاد که اشاره می‌کرد که انسان‌ها پر از خطاهای شناختی هستند، پردازش‌هاشون پر از سوگیریه و انسان‌ها تفکر نقاد ندارندد و اصولاً سعی می‌کرد تفکر نقاد رو درس بده، اشاره‌اش این بود که نه خیلی مواقع اتفاقاً به‌نظر میاد! یه جاهایی اون غلط دربیاد، باید به اون ندای درون یا اون سوگیری‌های غیر منطقی به‌ظاهر غیرمنطقی بها بدیم، می‌گم کتاب دشواری است من یه نگرانی‌ام دارم که کارهای Gigerenzer تعبیر بشه به علم‌ستیزی به خرد ستیزی یعنی یه عده بیان بگن که دیدی گفتی مثلاً علم همش خطا میکنه! دیدی گفتیم این پردازش خیلی پیچیده و ریاضیات و حسابگری و اینا درست جواب نمیده؟! من همینجوری یه چیز میگم درست درمیاد! او به این راحتی تصمیم نمیگیره بگه هرجا حس کردید دلتون یه چیزی میگه! قوانین اون رو سعی در پیدا بکنه و درواقع متوجه بشه کجاها هست ندای درون شما بهتر از محاسبات پیچیده ممکنه جواب بده؟ مثلاً یکیش همین پیدا کردن محل سکونت مجرم است که درواقع میگه که با قوانین ساده شما میتونین اون رو پیدا بکنید یا مثلاً مثال های دیگه‌ای میزنه مثلا کدام مشتری خرید میکنه؟ چه کسی مشتری خوب شما خواهد بود؟ کدام ازدواج‌ها پایدار می‌مونند؟ چه کسانی بعد از آزاد شدن از زندان دوباره جرم مرتکب می‌شن؟ می‌دونید اینایی خیلی چیزاییه که خیلیا جوابشو دوست دارند بدونن ولی باوجود داشتن محاسبات خیلی پیچیده و آمار زیاد متأسفانه نمی‌تونن به جواب برسند، من اگه بخوام کتاب چگونه در جهان هوشمند زرنگ بمانیم رو یه خلاصه بکنم، فکر می‌کنم که چهار بخش، چهار مبحث داره، چهار درواقع گزینه داره، یکیش همین قضیه قدرت یافتارها بود که Gigerenzer درواقع به ‌مرور کارهای قبلی خودش می‌پردازه! دومین نکته‌ای که او درواقع بهش می‌پردازیم: مسئله قدرت هوش مصنوعی است، حالا من سریع اینا رو توضیح میدم بعد با جزئیات تو دقایق بعد توضیح میدم، تو قسمت قدرت هوش مصنوعی اینو میگه، میگه: یک جریان خیلی قوی شکل‌گرفته به‌خصوص به کمک این ماشین‌های جستجوگر و داده بزرگ big data که میگن ببین مسائل پیچیده‌ی بشری مثل طلاق، مثل جرم، مثل موفقیت و گل کردن در هنر! اینا درسته که شما میگی پیچیده‌ست و مثل مدارهای سیاره‌ها به‌راحتی قابل‌پیش‌بینی نیست! ولی اگر ما به اندازه‌ی کافی داده جمع بکنیم، نه در حد ترابایت! در حد پتا بایت! داده جمع بکنیم و به کمک یادگیری عمیق، deep learn هوش مصنوعی اینا رو پردازش بکنیم، میتونیم رفتار بشر را تا حد قابل‌توجهی پیش‌بینی بکنیم و به شما بگیم کِی جدا میشه ؟ همسر ایده‌آل برای شما چیه؟ در کدام رشته موفق خواهی شد و درواقع کدام بیزینس در آینده موفق خواهد بود؟ پس یه بخش به نقد این رویکرد خیلی قوی هوش مصنوعی می‌پردازیم! حالا خواهم گفت که او کجا تفاوت پیدا می‌کند؟ مثلاً در نقطه مقابل این میشه گفت مروجان یا میشه گفت به نوعی پیامبران هوش مصنوعی قرار داره که میگن بشر به‌زودی شاه تو ده سال آینده مثلاً raymon رو نام می‌بره raymon cortsvile که میگه قدرت پردازش ابر کامپیوترا این‌قد زیاد می‌شوند که به مرحله‌ای می‌رسیم که بهش میگن singularity که درواقع این از هوش انسان میزنه جلو و انسان دیگه نمی‌فهمه این داره چی‌ کار میکنه و این ماشین درواقع قدرت رو میگیره، دست و رفتار بشر رو خیلی راحت می‌تونه پیش‌بینی بکنه! اون منتقد این تفکره! پس بخش دیگری که در کتابش هست، نقد رویکرد هوش مصنوعی یا اِی اَی مدرن است، قسمت سومی که بگم تو کتابش هست به مسئله surveillance caoitalismمی‌پردازه، کاپیتالیسم نظارتگر! حالا اینم دوستانی که حالا باهاش آشنایی دارند می دونند منظور چیه دیگه منظور اینه که می‌دونید که شما هر دفعه با همین شبکه اجتماعی که دارید این برنامه زنده رو نگاه می‌کنید، صفحات اینستاگرام را جستجو می‌کنید توی گوگل یه چیزی رو سرچ می‌کنید، یه مقداری از اطلاعات شما پردازش میشه، امیال شما، باورهای شما، علایق شما، به کدوم عکسا بیشتر نگاه می‌کنید، کدوم سایتا رو بیشتر میرید؟ و درنتیجه مدعی هستند و این ادعا از اون ادعاهای نظریه توطئه نیست! چیزیه که خود افراد اعتراف می‌کند، فیس‌بوک زاکربرگ، اعتراف میکنه، لری پیج توی گوگل اعتراف میکنه که ما این داده‌ها را پردازش می‌کنیم و در جهت بازاریابی ازش استفاده می‌کنیم و از این راه پول درمیاریم! بخش دیگر کتاب به نقد این قضیه پرداخته! این‌جا برخلاف هوش مصنوعی که در واقع دیگر Gigerenzer معتقده نه! اون‌قدری هم که ما فکر می‌کنیم نمی‌تونه از انسان جلو بیفته، درواقع اگر شما زیر تیتر کتاب را نگاه کنید: why human itekkigence still beats algorithms ، چرا هوش انسانی هنوز از پس الگوریتم‌های هوش مصنوعی برمیاد یعنی ما هوشمون بیشتره؟ این‌جا ابراز نگرانی و درواقع بدبینی میکنه! میگه نه این کار میده دستمون، اینا دارند همه چیه زندگی ما رو رصد می‌کنن و به نوعی دارند مارو درجهت مطامع بازاریابی و عرضه ی کالا مورد استفاده قرار میدهند، پس یه بخش دیگر کتاب اینه! راجع ‌به اون توضیح خواهم داد و قسمت آخرش به‌خصوص برای اون‌هایی که از برنامه‌های زنده، دوست دارن یه چیزی در زندگی عملی‌شون بهره ببرند، چند تا مقاله خیلی قشنگ، خیلی جالب رو بهش اشاره کرده که مقوله اعتیاد به شبکه‌های اجتماعی و اینترنته! و خیلی قشنگ نقد کرده که چگونه شما اون تو گیر می‌کنی! و درواقع همین برنامه به‌ظاهر دوستانه‌ای که ما داریم کلی روش تفکر شده که بتونه من و شما رو یه جوری معتاد کنه و ما این تو گیر کنیم البته نه به نیت اینی که بخواین شما مطلب علمی یاد بگیری، به نیت اینی که سرتون تو گوشی باشه و وقتی سرتون تو گوشی هست زمان زیادی رو از شبکه استفاده کنی که او بدون تبلیغات به شما بفروشه و درواقع پول دربیاره و درواقع اعتیاد به شبکه‌های اجتماعی و آثار مخرب رو نقد کرده! پس این یک چارچوب کلی از کتاب بود اگر موافقین به یه ذره جزئیات بیشتر بپردازیم، فکر می‌کنم اون قسمت آخرش به‌خصوص اگر نوجوان تو خونه دارید خیلی مهمه! چند تا مقاله بود که حتی من خودم یه جوری واقعاً م‌شه گفت بهتم برد، رفتم اصل مقاله رو درآوردم براتون یه مقدار توضیح خواهم داد و یه مقدار graph و اینا هم داره! و نقل‌قول‌های قشنگی هم داره! یکی از نقل‌قول‌هاشو بزارید برای شروع کار براتون بخونم: The problem isn’t the rise of smart machines up the dumbing down of humanity (آسترا تیلور) میگه مشکل ظهور ماشین‌های هوشمند نیست! عذر می‌خوام ابله شدن انسان‌هاست ! یعنی میگه همین‌جور که داریم میریم جلو خب اونا دارند هوش مصنوعی زیاد میشه! از اون طرف هم انسان‌ها دارند افت می‌کنن ساده می‌شن! راحت گول می‌خورن راحت تو تله می‌افتند، اصلاً قدرت تحلیل‌گری چون تضعیف میشه و به نوعی برده یی این ماشین عظیم اعتیادآور می‌شوند و البته باز یه چیز هم خدمتتون بگم. Gigerenzer جزء آدم‌های نسبتاً مثبته! مثل ما این کتابsurveillance caoitalism از shoshaana zuboff رو بخوایم مقایسه بکنیم او خیلی بدبینانه‌تره!س او یه جوری از رویکرد منتهی ‌الیه ضد سرمایه‌داری و چپ نگاه میکنه که همه رو بدبخت کردن! همه رو دارند در واقع به نوعی برده ی خودشون می‌کنن! نه Gigerenzer واقعاً منصفانه است و اگر شما آثارش رو بخونید تئوری توطئه اینکه بشریت رو به انحطاطه! آی بدبخت شدیم دیگه همه‌مون برده ماشین خواهیم شد و آینده‌ای نداریم! به قول معروف اون ادبیاته doom and gloom در واقع شوم و آینده‌ی تاریک نیست! خیلی دید روشن و قشنگی داره و راهکارهایی هم ارائه میده! به‌خصوص فصل آخرش خیلی قشنگه که والدین چه بکنند و هوشیار باشیم! چه‌جوری از این شبکه‌ها خوب استفاده بکنیم و تو دامی که برای ما طراحی کرده‌اند که فقط سرمون تو گوشی باشه و هی نگاه کنیم، نیفتیم! خب بیاین ببینیم این روان‌شناس برجسته چه چیزهایی را داره؟Gigerenzer واقعاً جزء اون افراد برجسته و اون‌ شاید صد نفر اول توی حوزه روان باشه، بحث رو با فصل اول شروع کنیم، این‌جوری شروع میکنه میگه که درواقع یک اصطلاحی توی هوش مصنوعی ها داره شکل میگیره AI beats humans اِی آی نسان رو می‌بره! و اینا میگن که ببین ما این‌قدر اطلاعات جمع کنیم، این‌قدر اطلاعات جمع می‌کنیم که راحت میتونیم خیلی از چیزایی رو که شما فکر می‌کنی قابل‌پیش‌بینی نیست، قابل‌اندازه‌گیری نیست یا اصلا این چیزا اصلا دست آدم نیس، اینا جزء اسرار جهانه! اصلاا کار خداوند! ما میتونیم براتون پیش‌بینی خواهیم کرد، به این میگه رویکردی که مد شده بنام AI beats humans ای آی از پس انسان‌ها برمیاد! ای آیی هم یعنی هوش مصنوعی! خب بحثش رو با سیستم‌های همسریابی آنلاین شروع میکنه، مثلاً چند تا سیستم رو نقد کرده! حالا من چون دیگه واقعاً نمی‌تونم جزئیات کتاب رو بگم و زمان می‌بره می‌خوام فقط یه محتوا شو بگم بعداً دوس داشتید خود کتاب رو بخونین، ترجمش و … مثلاً چند مؤسسه‌ی دوست‌یابی رو بررسی کرده مثل مؤسسه PARSSHIP که تو آلمان خیلی فعاله و ادعا میکنه هر یازده دقیقه یه نفر عشقشو اون تو پیدا میکنه! یعنی شما میری اون تو ثبت‌نام می‌کنی، هر یازده دقیقه یکیو پیدا می‌کنی که بعد اون تو اعلام می‌کنی من عشق زندگیمو پیدا کردم، واقعاً من این نیمه‌ی گم شده ام بود، منتها بحث جالبی که کرده یا مثلاً مؤسسه Ellite هست elitsingles یا باز مؤسسه elitesingles ادعا میکنه هر ماه هزار نفر ادعا می‌کنند عشق زندگی‌مون رو پیدا کردیم، پس اینم یه آمار دیگه یا مثلاً چند مؤسسه دیگر را نام برد مثل okcupid plenty of fish اسمش جالب پر از ماهی! ماهی منظورش اون جفت یا پارتنر هست، سیستم مک دات کام و tinder. منتها تحلیلی که از اینا کرده میگه که بسیاری از اینا نمایش تبلیغاتی است، مثلاً همون مؤسسه الیت که میگه در ماه هزار نفرو به‌هم پیوند میده و هزار نفر ادعا می‌کنند این دیگه در آزمون خطاهای پایه ی Daniel Kahneman استفاده میکنه، وقتی نگاه می‌کنی در همون صفحه من الان درواقع صفحه ی اول رو در مقابلم دارم، میگه در ماه 381 هزار نفر به اعضای ما اضافه می‌شن میگه خب یه ذره شما تفکر نقاد داشته باشید، 381 نفر هزار، نفر از اونا در ماه بتونند شریک زندگی‌شونو پیدا کنند، خیلی کمه! شما تو خیابون راه بری امکان اینکه بتونی پارتینرت رو پیدا کنی خیلی بهتره تا همچین مؤسسه ای و درواقع تحلیلی که کرده گفته اولاً قابل‌پیش‌بینی نیست، بسیاری از مواقع این افراد match نمیشن و یه بخشیش تبلیغاتِ این سیستم‌هاست! خلاصه فصل اولش اینه که خیلی به اینا دل ندید، اینا ادعا می‌کنند ما به کمک هوش مصنوعی، قشنگ باورهای شما رو پیدا می‌کنیم، باورهای طرف مقابلم پیدا می‌کنیم میگیم شما دوتا برای هم خوبید و عملاً میگه هیچ پیگیری هم نکرده که ببینه حالا این دو نفر که هم‌دیگه رو دیدن که تازه گفتیم هزار نفر در ماه این ادعا رو می‌کنند از 300 هزارنفری که در ماه اضافه می‌شند یعنی 380هزار نفر رو شما بریزی توی استادیوم بگی شما با هم اختلاط کنید به قول معروف امکانِ اینکه شما بیای بگی: یکی رو پیدا کردم، عجیب مچِ خودمه خیلی راحت خواهد بود و عملاً اینا هوش مصنوعیشون یک فریبه و یا مثلاً از حقه‌های جالب دیگه اینو یاد میکنه، اینا رو بخونید به‌خصوص برای اطلاعات عمومی و به قول معروف دانش شبکه‌هاتون خوبه، میگه وقتی شما توی مثلاً match.com ثبت‌نام می‌کنی، اولش پولی نیست شما مشخصاتت رو م‌دی من به چی علاقه دارم، ورزش چی دوس دارم، قدم چیه، چه‌جور شخصیتی دارم، یه سری پرسش‌ها از شماُ میگیره، بعد تو همون چند دقیقه اول میگه اوه یه نفر پیدا شد، دقیقاً شما رو دوست داره و میگه عاشق شماست! این دقیقاً شما مرد یا زن مورد نظرش هستید، منتها خب چون شما ثبت‌نام نکردید درواقع به شما معرفیش نمیکنه! بعد شما میری سریع پول میریزی، ثبت‌نام می‌کنی و بعد دیدی که … خب بعد تو میری اون آدم‌ رو پیدا کنی میگه اون هم یکی دیگه رو پیدا کرد! رفت! و منتظر میشه تا یکی دیگه پیداش شه و هرچه منتظر میشه، دیگه کسی پیدا نمیشه و این کار به کنگره آمریکا و اداره ی تخلفات کشیده بود! اونا متوجه شده بودند، این پیام‌هایی که قبل ‌از این‌که پول بدی برای شما میاد: فلانی عاشق شماست، فلانی شما رو لایک کرد، فلانی پروفایل شما رو دید حسابی شما رو پسندیده؛ اینا ساختگی اند و حتی او اشاره کرده بود که این‌جوری به شما میگن که آخ جون! این‌جا پر آدمایی ان که عاشقه منن! پس من برم زود عضو بشم و بعد تا عضو میشی میبینی از اون آدمایی که عاشق شما بودن، خبری نمیشه! مثلاً دیده بود که درواقع پونصد500 هزار عضو بیست و چهار ساعت بعد از دریافتِ درواقع بعد از ثبت‌نام، ایمیل دریافت کردند که شما یه نفر برات پیدا شده ولی به‌محض این‌که ثبت‌نام کردن دیدند نه! اون نفر رفت، اون منصرف شد! حالا وایمیستیم یکی دیگه پیدا شه و عملاً کس دیگه پیدا نمیشه، پس می‌بینی خیلی از این‌ها حقه‌هایی هست که مثلاً اون اداره ی میشه گفت trade ، اداره بازرگانی آمریکا این را حتی سوء کرده که ببین سر مشتری‌ها داری کلاه میذاری! از الکی میگی کلی match برات پیدا کردم، وقتی طرف پول میده پای عمل میرسه، مچی رو نمی‌کنی! و درنتیجه کاهش پیدا میکنه! خوب او اشاره کرده بود که آره! پس می‌بینید این هوش مصنوعی اون‌قدری که ما فکر می‌کنیم پس تو این قضیه موفقق نبوده! چرا موفق نیست؟ میگه برای دلایل مختلف داره دیگه! اولاً رفتارهای بشر قابل‌پیش‌بینی نیست! هرچقدم داده ی زیاد داشته باشی ثانیاً خیلی از این‌ها ممکنه اصلاً اون تو حقه باشه! فریب باشه! طرف غلط نوشته دروغ نوشته یا اصلاً در واقع ما قوانین اینی که کی از کی خوشش میاد رو هنوز به‌درستی نمی‌دونیم حتی اگر ما میلیون‌ها درواقع داده، میلیون‌ها که چه عرض کنم! میلیاردها داده داشته باشیم مثلاً او !اشاره میکنه میگه آره 1997 تونستیم قهرمان شطرنج جهان را به کمک هوش مصنوعی ببریم یا آلفا زیرو مثلاً می‌تونه تو هر بازی ورق و اینا شما رو ببره یا یک کامپیوتری ساخته بودند بنام واتسون در 2011 که همه شرکت‌کننده‌ها رو توی اون jeopardy که اطلاعات عمومی تو آمریکا هست برده بود میگفت آره تو اینا میشه ولی تو حوزه‌هایی که رفتار پیچیده است مثل پیدا کردن همسر یا درواقع به نوعی پیش‌بینی کردن اینه که کی جور مرتکب میشه؟ کی مرتکب نمیشه؟ ما به‌راحتی نمی‌توانیم از هوش مصنوعی استفاده کنیم، این دیدگاه اوست! البته اینم بهتون بگم وقتی من این رو مقایسه کردم مثلاً شما اگر کتابی قبلاً یادتون باشه براتون معرفی کرده بودم Daniel Susskind که صحبت کرده بود، او خیلی مثبت نگاه می‌کرد، می‌گفت: از طریق یادگیری عمیق اون deep learning که در هوش مصنوعی هست، ما به‌زودی میتونیم مرزهای خیلی مهمی رو رد بکنیم و در واقع این سوالاتی که درواقع Gigerenzer میگه شدنی نیست رو شدنیش کنیم! حالا باز مثال‌های دیگری می‌زنیم مثلاً در فصل‌های بعدش، اینا خالی از لطف نیست شما مثال‌هاش رو نگاه کنید و یه جوری به قول معروف گوشی بیاد دستتون یکی از مثال‌هایی که… این مثال خیلی شایعه! می‌گفتن که مرکز کنترل بیماری‌های عفونی آمریکا همیشه دنبال این بود که من بتونم الگوی رشد آنفولانزا رو پیش‌بینی بکنم، مثلاً تعداد زیادی ایستگاه بزارم از مردم مثل همین کویید 19 هست، نمونه از بینی‌شون بگیرن، از خلطشون بگیرن کشت بدن، بررسی کنند ببینن آنفولانزا چه‌جوری تو آمریکا رشد پیدا میکنه ؟گوگل در سال درواقع 2009 اینا ادعا کرده بود که نه! من اتفاقاً می‌تونم باهوش مصنوعی به شما الگوش رو نشون بدم و الگوی من از روی جستجویی است که افراد از علایم آنفولانزا می‌کنند یعنی هر کسی که وقتی سردرد میشه و آب‌ریزش داره، استخوان درد داره، می‌ره تو گوگل سوال می‌کنه این علایم چیه؟ درمانش چیه؟ اون تو تایپ میکنه و بعد من از روی هوش مصنوعی می‌تونم ببینم که یه شهری چرا همه دارند این رو سوال می‌کنن؟ پس یه سوش جدید اومده! بعد شهر بعد کجاس؟ همون جور می‌ره جلو و بعد یه سری نمودار رسم می‌کنه که ببین چقدر قشنگ‌تر از cdc اون مرکز کنترل بیماری‌ها، من می‌تونم رشد آنفولانزا رو پیش‌بینی کنم! صرفاً از روی لغاتی که مردم تو گوگل جستجو می‌کنند، خب مثلاً Gigerenzer نشون داد که این خیلی قشنگ می‌رفت جلو تا یکی تو 2009 و دیگری تو 2015 به‌طرز فاحشی دچار اشتباه شد! چه‌جوری میگه؟ تو 2009 الگوی آنفولانزا عوض شد و بیشتر با علایم اسهال و درد شکم اومد! و ماشین هوشمند گول خورد و اشاره کرد که هیچ نشانی از افزایش آنفلوانزا نیست! درصورتی که کل شهرو برداشته بود تا 2013 عذر می‌خوام تو 2013 اتفاق چی شد؟ به دلایلی مرد مثل این که کنجکاو شده بودند آنفولانزا بشناسند! ترس تو دلشون افتاده بود اونایی که اصلاً مریضم نبودن شروع کرده بودند علایم رو چک کردن از توی اینترنت و یه پیک خیلی بلند زده بود که گفته بود یک موج شدید آنفولانزا است، درصورتی‌که موج آنفلوانزا نبوده! موج کنجکاوی مردم به جستجو کردن علایم هوش.. علایم آنفولانزا بوده و هوش مصنوعی به غلط اون رو تعبیر کرده بود! حالا باز مثال‌های خیلی زیادی رو میزنه که بعضیاش واقعاً بامزه است! یعنی حالا ممکنه شما بگین که خب این منتقد هوش مصنوعیه! این مثال‌ها رو رفته گشته! تو کلی موارد پیدا کرده، مثلاً اومده دید که وقتی یه دایده بزرگ رو پردازش بکنی، بین غرق شدن آدم‌ها در استخر تعداد فیلم‌هایی که nicolas cage در آن سال بازی کرده، یه هم‌بستگی خیلی بالا وجود دارده! یعنی هرچی nicolas cage بیشتر تو اون سال فیلم بازی کرده، تعداد بیشتری غرق شدند و دو تا منحنی اینا در این داده‌ی بزرگ چقدر رو هم سواره! یا باز یکی دیگه نشون داده بود که تعداد افرادی که دکترا در جامعه شناسی در سال میگیرن در آمریکا، خیلی دقیق منطبق دراومده با تعداد پروازهای هوافضای غیر تجاری به خارج از جو زمین! که می‌دونی هیچ ربطی نداره! بازی جالب‌ترش تعداد آدمایی که براثر سوختگی می‌میرند ارتباط عجیبی داره با سن Miss america یعنی اون بانوی درواقع ملکه زیبایی آمریکا ! در صورتی که شما میتونی فکر کنی عملاً نداره! و از همه جالب‌تر اینه که میگه یک هم‌بستگی 99 درصد داره، می‌دونیم R 99 درصد تقریباً یکیه! دیگه اصلاً رد خور نداره، این دوتا رو هم منطبق اند! میزان ازدواج در ایالت مِین در آمریکا دقیقاً منطبق با مصرف سرانه ی مارگارین در آمریکاست! میگه وقتی شما داده خیلی عظیم داری، ممکنه ارتباط‌های خیالی پیدا کنی و این ارتباط خیالی رو به خطا به‌عنوان یک کشفی علمی تلقی بکنی یا باز در کتاب پر از عکس و تصاویر هست که جاهایی که سیستم هوش مصنوعی خطای فاحش کرده، مثلاً یه جایی رو اومدن به‌صورت موازی زرد و آبی رنگ کردن و از هوش مصنوعی پرسیدند: به‌عنوان شناسایی اشیاء این چیه؟ گفت اتوبوس مدرسه است یا مثلاً فرض کنید که یه جای دیگه اومده یک سری خط و خطوط این‌جوری رسم کردند و کنتراستشو یه دست‌کاری کردند و این چیه؟ سیستم هوش مصنوعی گفته: این گیتاره! یعنی این‌که گفته ببین اصلا چه خطاهایی این سیستم می‌کنه و در واقع گفته این سیستم داره بیش‌ازحد فروخته میشه به مردم که می‌تونه و این خطاهای فاحش خواهد کرد و به‌همین دلیل در این کتاب ادعای Gigerenzer اینه که این اتومبیل‌های خودران به این زودی نخواهند اومد! یعنی معتقده که رانندگی خیلی عدم قطعیتش بالاست و ممکنه مثلاً تو اتوبان به‌صورت کروز بتونه بره یا تو بعضی جاها بتونه بره ولی به این راحتی نمی‌تونه وارد شهر بشه! برا این‌که عدم قطعیت بالاست! یه دیدگاهه دیگه! و البته ادعا میکنه که من متخصص هوش مصنوعی نیستم ولی متوجه خطاهای شناختی که توی این حوزه در مروجان این قضیه یا باور کنندگان اون هستن، دارم! حالا می‌گم اینا رو خودتون بخونید شاید نکات جالب باشه، باز یکی دیگه‌اش که به‌نظرم جالب بود بهش میگه : اسطوره تانک روسی! این اسطوره یا افسانه لجند The Russian tank legend که میگن درمورد نقایص هوش مصنوعی اینه! برای اینکه این‌جوری بهتون بگم دوستانی که شاید من خودمم اطلاعاتی ندارم! از همین کتاب‌ها یاد گرفتم ولی بدونند آموزش عمیق deep learning یادگیری عمیق چگونه است؟ این شکلیه! فرض کنه به یک ابرکامپیوتر تعداد زیادی عکس از یه چیز نشون میدهند و میگن خودت بگرد و این قانونمندش کن! و بفهم چیه و بعد عکس‌های جدیدتر رو بر اون اساس شناسایی کن مثلاً یکی از مشهورترینش که اینو مثال می‌زنند به‌عنوان خطا! البته این قدیمیه و خیلی‌ها میگن دیگه اغراق شده! الان هوش مصنوعی خطا نمیکنه ! برای ماهواره بر این‌که بتونه تانک‌ها رو درواقع شناسایی بکنه و آدم نشینه اون‌جا! یکی‌یکی دنبال تانک بگرده! اومده بودند تعداد زیادی عکس از تانک‌های روسی رو تو زوایای مختلف به کامپیوتر نشون داده بودند و در مقابل تانک‌های آمریکایی! و بعد دیده بودن که بعد از یه مدت چند هزار تانک رو دیدن! بالاخره هوش مصنوعی می‌تونست تانک رو راحت بگه این آمریکاییه! این نوع روسیه! این آمریکاییه! این روسیه و تو اون سمپل دیده بودند شاهکار! دیگه این اصلاً با سرعت بالا عکسا رو غربال می‌کنه! و مشخص میکنه منتها میگه بعد اومدن توی واقعیت نگاه کنند، از این به بعد بیایم پیش‌بینی کنیم، دیدن با کمال تعجب هیچ نتونست درست عمل کنه! و خطاهای فاحش کرد مونده بودن که تو که این‌همه تو اون تست‌های قبلی درست عمل کردی! میگه جوابی که پیدا کرده بودند این بود که تمام عکس‌هایی که اینا تو آرشیوشون از تانک‌های روسی داشتن، در هوای ابری بوده! و تانک‌های آمریکایی در هوای آفتابی! و درواقع هوش مصنوعی بین تانک‌ها تفاوت پیدا نکرده بوده! بین ابری بودن یا غیرابری بودن پیدا کرده بوده! این یقین میگن از اون legend و افسانه‌ها یا اسطوره‌هاییه که برای هشدار تو کتاب‌ها درس میدهند! حالا چقدرش راسته چقدرش اغراقه نیست! و من فکر می‌کنم که یه مقداری Gigerenzer داره ! اغراق میکنه هوش مصنوعی خب رشد میکنه و بزودی می‌تونه خیلی از این مشکلات رو حل بکنه یعنی این‌قدری هم که تو میگی ناامیده و امکان نداره براحتی بتونه رانندگی بکنه و اینا! کتاب مال 2022 !ولی ممکنه که تو همین آینده این اتفاق بیفته اینم از اون چیزایی که می‌خوام دوستان روش فکر کنین، فکر می‌کنی مثلا پنج سال آینده، ده سال آینده تاکسی خودران فراگیر میشه؟ یا این‌که نه! به بن‌بست می‌خوره چون یه جاهای اشتباه های فاحش میکنه! مثلاً دوچرخه رو با شیر آب اشتباه میگیره یا ممکنه که اصلا یه کامیون رو نبینه! بره صاف تو دلش! خب این بحثی بود که توی چند فصل اولش داره و اشاره میکنه که ما درمورد توان‌مندی‌های هوش مصنوعی باید با اصطلاحاً احتیاط! نگاه کنیم، منتها عزیزان من‌ بزارید چند تا نکته‌ای رو که به‌عنوان نکات روانی میگه نگاه کن! میگه یکی از دلایلی که هوش مصنوعی نمی‌تونه اینه که مفهوم قصد و نیت رو متوجه نمیشه! باید بتونه قصد و نیت رو متوجه بشه و حتی قصد و نیت پیچیده‌تر! مثل نیت‌های پنهان یه مثال براتون بزنم این مثال خودمه ولی شبیه این رو تو کتابش زده! شما این صحنه رو زیاد تو مهمونی ها دیدین مثلاً مهمون نشسته !صاحب‌خانه هست طرف نیگا می‌کنه اوخ اوخ ساعت یازده و نیم شد و صاحب‌خونه برمی‌گرده میگه فردا که تعطیله! شما این گفت‌وگو را چه‌جور تحلیلش می‌کنید؟ به‌ظاهر یه گفتگوی خیلی ساده است که شاید حتی بچه‌های ده، دوازده‌ساله هم متوجه شدن! اخ اخ ساعت یازده و نیم شد و او میگه فردا که تعطیله! به‌همین نگاه کنید، این یکی از پیچیده‌ترین شاهکارهای ذهنه! ساعت یازده و نیم شد، یعنی دیر شده فک کنم باید بریم! اجازه بدید رفع زحمت کنیم! ولی اینا رو نمیگه اینا مستتره! و درعین‌حال صاحب‌خونه برمی‌گرده یه تعارف به‌طرف می‌زنیه میگه نه بمونید! دوست داریم از محضر شما بیشتر استفاده کنیم اگر نگرانیت اینه که دیروقته و ما می‌خواهیم بخوابیم فردا تعطیله! خیالتون راحت ما نمی‌خوایم بخوابیم بمون و بیشتر از محضر شما لذت ببریم! به این میگن pragmatics (پراگماتیکسِ کلام) در ورای این، یک پدیده بسیار پیچیده‌ای بنام mentalization، ذهنی سازی هست یعنی من نیت اونو می‌خونم! اون نیت منو می‌خونه! و بدون اینه که ما نیت هامون رو مستقیم با هم، درواقع تبادل کرده باشیم، به نوعی متوجه می‌شیم! حتی شما متوجه میشی که این حرف تعارفه! یا واقعیته! درصورتی‌که هوش مصنوعی اصلاً نمی‌تونه این رو تفسیر کنه یعنی چی؟ طرف میگه ساعت یازده و نیمه! بعد اون برمی‌گرده میگه که فردا تعطیله! یعنی اینا چه‌جوری.. میگه: باید شما بتونی اون ذهن خودت رو به نیت بعدی منتشر ب‌کنی، اجازه بدید راجع‌به این پدیده بسیار جالبِ mentalization ذهنی سازی که یکی از شاهکارهای ذهنه! اصلاً من یک برنامه جدا بزنم چرا؟ چون متوجه شدند خیلی از اینایی که ما تحت عنوان اختلال شخصیت! افرادی که دچار اختلال مرزی هستند یاد می‌کنیمريال تو این بخش ایراد دارند و تازه این ایراد در حالت عادی نیست، وقتی هیجانی می‌شن پیدا میشه! یعنی وقتی شما هیجان داری! اضطراب داری! دل‌شوره داری! برمی‌گرده میگه ساعت یازده و نیمه، ممکنه این‌جا دیگه نکته رو نگیره! خو یعنی چی؟ میگی چی‌کار کنم؟ یازده و نیمه؟ خب یازده و نیمه دیگه! یعنی چی یعنی مثل من الان بکنم دوازده؟ اون‌جا دیگه نمیگیره! میگن این خطای mentalization زیرساخت بسیاری از اختلالات روانه! و این یک شاهکاریه که ذهن بشر داره! و می‌تونه نیت رو در دیگران شناسایی بکنه، به کمک وجه پنهانی از کلام، که ما بهش میگیم pragmatism به‌هرحال شما از همین الان شروع کنید این پراگماتیسم ها و نیت خوانی ها رو نگاه کنید، ببینید چه تنوع عجیب غریبی داره، و همان گفته‌ها را اگر شما یادداشت کنید اصلاً هیچ مفهومی نداره! ولی وقتی تا می‌خونی اهان تو ذهن این بوده! توی ذهن اون اون یکی بوده! مثلاً فرض کن طرف میاد میگه که این پیراهنه بهم میاد؟ ول کن پدرش مریضه! یعنی چی؟ این پیراهنه بهم میاد؟ یعنی من می‌خوام اینو برای مهمونی بپوشم که بریم اون‌جا! میگه نه نریم مهمونی! پدرشون مریضه! فکر کنم نریم مزاحمش بشیم! ببین این دیالوگ! اون وسطش از کجا میاد! اون وسطش پراگماتیسمه که از mentalization میاد، او یکی از قسمت‌هایی که خیلی‌خوب میگه، میگه که هوش مصنوعی این قسمت رو نداره و تا اینو نداشته باشی نمیتونی بخش زیادی از رفتار انسان رو پیش‌بینی بکنی! خب بریم قسمت دیگری از کتاب رو نگاه بکنیم! یه قسمت خوب دیگه داره دوستان! اگر در ذهن‌تون هنوز با قسمت قبل کلنجار میرید، یه وقفه بزارید! می‌خوایم به این قسمت برسیم قسمت خیلی مورد علاقه منه! ببین نمی‌دونم چه‌جوری بگم یه ذره دشواره! دارم سعی می‌کنم یه جوری خدمتتون ارائه اش بدم که تأثیرگذار باشه چون از اون چیزاییه که خیلی به درد زندگی‌مون می‌خوره! شاید اصلاً بذارید یک کتاب… بذار برای اینکه راحت‌تر این مفهوم رو جا بندازم براتون اولاً دوتا مطلب براتون معرفی می‌کنم every think is obvious once you know the answere “همه‌چیز مشخص است وقتی جواب را بدانی” کتابی بسیار خواندنی، یک شاهکار روشنگر! از DUNCAN J.WATTS 2011! من قبلاً به این کتاب اشاره کردم، توی مبحث افولِ بتاماکس، میگه … این کتاب حرف اساسیش اینه، میگه وقتی جواب رو می‌دونی همه‌چی روشنه! این کتاب رو تو ذهنت نگه‌دار! خب اینو یه جا نگه دارید، توی این حافظه ی کار کردید! اساس کتاب اینو میگه به این شکل براتون بگم میگه وقتی شما می‌خوای یه واقعه ای رو توضیح بدی، وقتی اون واقعه اتفاق افتاده به‌راحتی میتونی علت هاش رو پیدا بکنی مثلاً چی شد فلان‌کس تصادف کرد! چی شد فلان‌کس طلاق گرفت! چی شد فلان‌کس خودکشی کرد! چی شد انقلاب شد! چی شد جنگ شد! به‌ظاهر خیلی تفسیرهایی قشنگی میاد میگه، مسگه ولی اگه راست میگی قبلش پیش‌بینی کن! به‌طرز عجیبی نمیتونی! اینو تو ذهنت نگه این اساس شاهکار DUNCAN J.WATTS ! اونایی که می‌خوان عمیق بیندیشند، باید این کتاب رو بخونند، برای روان‌شناسان بالینی و روان‌پزشکان یه مقاله 1973 یک کلاسیک حساب میشه! PAUL MEEHL در عظمت PAUL MEEHL شما شک نمی‌کنید او تأثیرگذاره! مفاهیم خیلی بنیادینی را در روان‌شناسی مدرن ارائه داده! مفهوم اسکیزوتاکسی، طبقه‌بندی اسکیزوفرنی، بسیاری از علامت شناسی ها! ولی اسم مقاله رو نگاه کن! Why I don not attend case confrences چرا من به جلسات معرفی بیمار نمی‌رم؟ 1973 اینو نوشته! شما دیدی جلسات معرفی بیمار میری یه کیسی رو برای شما معرفی می‌کنند که خودکشی کرده! کیسی رو معرفی می‌کنن که مثلاً به مادرش حمله کرده! کیسی رو معرفی می‌کنند معتاد شده! کیسی رو معرفی می‌کنن طلاق گرفته و اون‌جا تفسیرگر که هیچ زیر سؤال نمی‌بریمش! تخت هشت نمی‌کنیم! میاد داستان رو خیلی قشنگ برای شما نقد میکنه میگه کودکیش این‌جوری بوده! همسرش این ویژگی‌ها رو داشته!! این ویژگی با این ویژگی مقابل شده باعث اختلاف شده! فشار رفته بالا بعد فشار کار پیدا شده! و این باعث شده خودکشی کنه، این بعث شده طلاق بگیره! یعنی خیلی قشنگ گذشته را می‌توان توصیف کرد به نوعی که شما اصلاً حس می‌کنی چقدر تفسیر قشنگ بود این مقاله رو بخون ولی paul meehl میگه من از این معرفی بیماران نمی‌رم چرا جلسات رو نمیری؟ برای اینکه اون معتقده خیلی از این چیزا داستان‌سراییه! توهین به کسی نشه! قطع نکنید! امیدوارم اینستا اینجا رو قطع نکنه! منظورش چیه؟ برگردیم به همون پیش‌بینی طلاق! دیده بود که سیستم‌های هوشمند ادعا می‌کنند که تا 87 درصد ، 90 درصد،95 درصد می‌تونن توی یه نمونه بهشون بدی، هی پردازش می‌کنند طلاق رو، میگن! می‌گن اینا از هم طلاق میگیرند! ولی میگه خیلی خب حالا این نرم‌افزار بیاد بزنیم تو زندگی زوج‌های جوان! می‌بینی عمق قدرت تشخیصش میشه 21 درصد از 95 درصد 21 درصد! و وقتی اومدن میزان پایه طلاق را نگاه کردن (16 درصد-17 درصد) گفتن خب عزیزمن! سکه‌ام مینداختی تقریبا همین بود دیگه!! مثل اینایی که کنکور می‌رن میگن مثلاً امتیازشون شد چند؟ میگه 25درصد! خب میگه همینجوری تصادفی هم میزدی باید 25درصد رو میاوردی دیگه! یک چهارم سوالات! پس نتونسته پیش‌بینی کنه! این داستانش کجاست؟ مشابه همین رو دوستان من! می‌گم این از اون بحث‌های ترسناک زندگیه! شما تو تفسیرهای اقتصادی، سیاسی، اجتماعی می‌بینید! چه شد جنگ شد؟ چه شد انقلاب شد؟ و خیلی قشنگ طرف برا شما داده ها رو میگه! این نارضایتی اینجوری شد! تورم اینجوری می‌شد! بیکاری اینجوری شد! و بعد این شد…ولی ما از کتاب‌هایی مثل every think is obvious once you know the answere یا از اون کتاب Philip tetlock پیش‌بینی آینده! متوجه ایم که وقتی به‌همین آدما که به این قشنگی زندگی یک انسان را توضیح میدهند، به این قشنگی وقایع اجتماعی را توضیح میدهد! میگن خب حالا بگو بینیم سال بعد به‌نظر شما جنگ میشه یا نمیشه؟ سال بعد قیمت نفت می‌ره بالا میاد پایین؟ سال بعد نمی‌دونم وضعیت اوکراین چی میشه؟ آیا یک‌سال دیگه جنگ اوکراین تموم شده یانه؟ می‌دونید فیلیپین Philip tetlock اصلا این کار رو میکنه! یک روان‌شناس بسیار مشهور و چیز عجیبی که درآورده اینه: اکثریت افراد قدرت پیش‌بینیشون بخار می‌شه! یعنی همونی که خیلی قشنگ در زندگی شما رو براتون تفسیر میکنه که چرا به این‌جا رسیدی وقتی میگه خب حالا از این به بعدشو بیا بگو، !غلط در میاد میگه تو که گذشته ی من رو اینقدر خوب تفسیر کردی! پس این‌قدر قشنگ به قول چیز خم و چم ذهن منو خوندی پس چرا من حرفا!! نمیتونی آینده رو پیش‌بینی کنی؟ این یکی از ابر چالش‌های بشری است، دوستان من! اگر بپرسی واقعاً اگر من بخوام چهار پنج تا هرچیزی که تو زندگی چراغ راه خودم کردم یکیش اینه: گذشته رو خیلی راحت میشه تفسیر کرد و یک خطا به شما میده! یک توهم میده! که من فهمیدم قضیه و بعد که برمی‌گردی همون قوانین می‌خوای به آینده اعمال کنی! اتفاق نمی‌افتد! جالبه تو همین کتابم از yogi beraa باز نام‌برده! yogi beraa یادتون هست که همون که حرف‌های بامزه می‌زد! البته گفتن این حرف بامزه‌اش رو فقط yogi beraa نزده! Niels bohr فیزیکدان نابغه و مشهور و mark rwain هم گفته و داستانش اینه که گفته پیش‌بینی کردن خیلی سخته! بخصوص درمورد آینده! ببین توی این طنز یه نکته عمیق هست میگه: شما وقتی داده‌ها رو داری، گذشته مردم خوب میتونی توضیح بدی! ولی نمیتونی آینده.. یعنی گذشته رو خوب میتونی پیش‌بینی کنی، به این میگه خطا! خطای تیرانداز تگزاسی! Texas sharpshooter fallacy “تکساس شارپ شوتر فلسی” چیه دوستان من؟ میگه ببین شما فکر کن داری یه جا تیراندازی می‌کنی! اول تیراندازی کنی بعد بری سیبل رو بکشی! یعنی شما اگر تیرت به خطا رفته میتونی بیای اون سیبل رو یا هدف رو اون‌ور بکشی که تیرت به به خطا نرفته، این کاری است که ذهن ما میکنه!ر یعنی اول هدف و نمی‌کشد توش تیر اندازی کنه ببینه درست میزنه یا نه، اول که زده بعد هدف رو دور اون تیرهایی که خورده می‌کشه اصطلاح قشنگی که gigerenzer بر این گذاشته، بهش میگه: Texas sharpshooter fallacy “به بیان دیگه میگه وقتی شما مثلاً می‌فهمی یک نفر خودکشی کرده می‌گردی مثل همون تیرانداز تگزاسی، هدف رو اون‌جا رسم می‌کن!ی خب مادر سخت‌گیر بوده! بعله! توی مدرسه درس‌هاش پایین بوده بعله! نمی‌دونم پدرش همش مسافرت بوده، بله بله! اینا رو بهم وصل می‌کنی و تفسیری از زندگی او می‌سازیم و paul meehl برای همین نم‌ره معرفی بیمار! میگه اون طرف اینکار رو داره میکنه ولی به همون طرفی که این‌قدر قشنگ این عوامل رو کنار هم می‌چینه میگن خیلی خب بذارین ندید! جواب سؤال ها رو نبینه! بگو ببینم از این هزار نفر چند تاشون خودکشی خواهم کرد؟ از این هزار ازدواج چند تاشون طلاق خواهند گرفت؟ از این هزار کشور که نداریم! از این 20 کشور کدومشون انقلاب خواهد شد؟ کی رئیس‌جمهور خواهد شد؟ خراب میکنه دیگه نمیتونه! درصورتی‌که الان ببین مثل همین راجع‌به انتخابات ترامپ کلی کتاب هست که نمی‌دونم طبقه‌ی متوسط این‌جوری شده بود، درآمد این‌جور شده اون‌جور شده بود! خیلی هم قشنگ، با آمار و گراف نشون می‌داد! ولی میگه خوب پس چرا قبلش نتونستی؟ Philip tetlock برای ما ثابت کرده نمی‌تونن بگن، شما ببین همین جنگ اوکراین رو نتونستند پیش‌بینی کنند! الان آینده اش رو هم نمیدونند چی میشه، وقایع رو نمی‌تونن ولی رو به عقب رو قشنگ میشه تفسیر کرد! چرا؟ به این میگن خطای تأیید، یعنی ما می‌گردیم و درواقع شواهدی رو در جهت واقعه پیدا می‌کنیم و این‌قدر قشنگ اینا رو بهم می‌چسبانیم که به‌نظر میاد علت رو یافتیم! ولی دو جا شما دچار اشتباه میشی، دو جا کارت می‌لنگه! اینا رو درس زندگی! برای من، درس زندگی بود، میگه: یک: برای اینکه این خطا نشی اگه راست میگی، بچرخ! رو به آینده نگاه کن! دفتر تو همین الان وردار اگر به زندگی خصوصی مردم کنجکاو و فضولی، اگر به اقتصاد و سیاست علاقه‌مندی، اگر به انتخابات علاقه‌مندی، اگر می‌خواهید بیزینس کنی بنویس! و به‌صورت آری یا نه هم باشه به قول معروف (باینری) قیمت دلار عید بالای چهل هزار تومن است، پایین چهل هزار تومان است؟ آری خیر! در عید امسال زلنسکی پیروز شده‌است؟ آری خیر! نمی‌دونم در شهریور امسال قیمت ملک این‌قدر است آری خیر! و بعد با کمال تعجب می‌بینی! خیلی از اینا رو نمیتونی یعنی اگر شیر و خطم کنارش بندازی، آره یا خیر ها رو بذاری اون خیلی بدتر از تو عمل نمی‌کنه، این سیستم‌های پیچیده‌ای اینو داره ولی وقتی اتفاق افتاد این‌قدر قشنگ میتونی بچسبونی ببین دلیلش اینه مردم احساس نارضایتی کردند، نارضایتی به …منجر شد و بعد از اون طرف نمی‌دونم قیمت نفت رفت بالا! و اینا اینا رو خب آره… پس میگه ذهن ما گذشته‌نگر علیت رو می‌تونه خیلی قشنگ بهم بچسبونه، همین رو در روان انسان داریم! میگه تو این case presentation ها معرفی بیمار paul meehl میگه این کارو می‌کنن، پس اگه راست میگی یک: باید از تست پیش‌بینی رد شین، میگه بسیاری از این هوش مصنوعی ها این کارو نمی‌تونند بکنند، معادل بهترین مدلی که فیت میشه با داده‌ها رو برای شما پیدا می‌کنند، میگن best fit model حتی یه کار دیگه می‌کنن میگن برای اینکه تأیید کنیم که این best fit model درسته، دیتا رو دو تیکه می‌کنیم،! خب مثلاً یک میلیون داده داریم، پونصد هزار تا رو best fit model رو پیدا می‌کنیم بعد اون best fit model رو تو اون یکی محک می‌زنیم، می‌بینیم جواب داد! یعنی بهترین مدلی که کار میکنه به این میگن cross validationتأیید متقابل! میگه ولی این همون حرفِ yogi beraa هست دیگه! yogi beraa رو مسخره می‌کردیم، راجع‌به گذشته داری اینو میگی، اگه راست میگی بچرخون! اون پیش‌بینی گرت، رو راجع‌به آینده بگو! چون قوی سیاه اتفاق می‌افته، چون قوانین آینده ناشناخته است، چون این رو به گذشته رو براساس خطای تیرانداز تگزاسی رسم کردی، گشتی ببینی چه عواملی این رو توجیه میکنه! اونا رو وارد عمل کردی این اتفاق افتاده! که یه جاهاییشم دیدی همون داستان مارگارین و طلاق میشه! دیگه کره مارگارین خوردنش با طلاق هم‌بستگی پیدا میکنه! بعد شما از راه فروش مارگارین بخواهید طلاق سال بعد رو پیش بینی کنی! نیکولاس نسیم طالب یکی از اون‌هایی که خیلی قشنگ اینو نقد میکنه، پس یکیش این شد دوستان من! اگر می‌خوای توی تله نیفتید قدرت پیش‌بینی کنندگی خودتون رو محک بزنید، پیش خودتون یه دفترچه داشته باشید و وقایعی رو که براتون مهمه آره یا خیر! بنویسید و هر از چندگاهی تیک بزنید! ببینید چن تاش درست درآمد و بعد خودتون رو نقد کنید! یه چیز عجیب براتون روشن میشه! حالا حالا حالا… ممکنه بگید نه من به حافظم دارم اتکا می‌کنم من مثلا اینو پیش‌بینی کردم معلوم بود این رئیس‌جمهور میشه! معلوم بود ترامپ میبره! … من اصلا اینا رو گفته بودم! این همان بحثی است که من با آقای میرفخرایی داشتم اون جهان پنهان ذهن! حافظه‌ی ما گذشته رو بازسازی میکنه، توی اون پیروزی‌های تجربه‌ام گفتم، اون جاهایی که به‌ نحو وقایع هست اونو یادت می‌مونه! اون قسمتای دیگه رو پاک میکنه، حافظه ما سیاله! حافظه‌ی ما مثل کامپیوتر نیست! که همه‌چیز توش فیکسه! براساس وقایع گذشته رو بازسازی می‌کنه و شما گاهی اوقات دعواهای فامیلم که من گفتم این‌جوری میشه! بابا من گفته بودم که دلار این‌جوری میشه! ولی درصورتی‌که میگه نه! یه جاهایی همی می‌گفت این‌جوری نمیشه! تو بعضی روزا اینو می‌گفتی بعضی روزا اونو می‌گفتی الان اون یادت مونده! این بهش میگن best fit model و درواقع اون بایست یا سوگیری عقب! پس این یه اصل ولی گفتن دوتاس! اون یکیش چیه؟ که تو زندگی در سیستم ذهن‌مون باید وارد کنیم! پس یه کاری که گفتم خواهش می‌کنم هر جا دیدی گذشته رو چقدر قشنگ دارید تفسیر می‌کنید اصلاً راجع‌به گذشته‌ی بیمار! گذشته ی تاریخ، گذشته ی اقتصاد، گذشته زندگی فردیت، داری داستان‌هایی رو خیلی قشنگ می‌چینی من به این دلیل این‌جور شدم بعد از این‌جور شدم بعد اینجور شدم حواست باشه توی اون خطا نیفتاده باشی یه راهش اینه که اگه راست میگی آینده‌ام رو بیا واردش کن! یعنی به قول یوگی برا آینده رو پیش‌بینی کن اگه راست میگی، گذشته رو که راحت میشه پیش بینی کرد! قسمت دومش چیه؟ قسمت دومش هم یه چیز خیلی پیچیده است! چه‌جوری براتون بگم این شکلی براتون بگم: یکی از ا اصطلاح مثال نیستا! توی سه چهار تا کتاب این رو دیدم، تو همون کتابایی که معرفی کردم خدمتتون ،میگه شرلوک هولمز و دکتر واتسون… میگه واتسون الان گوش بده !چی می‌شنوی؟ میگه هیچی نمی‌شنوم میگهخب همین نکته اس دیگه! میگه چرا ؟ میگه خب سگ چرا پارس نمیکنه؟ اگر سارق غریبه بود باید سگ پارس می‌کرد! پس اینی که سگ پارس نکرده خودش یه معنی‌داره به این میگن قدرت the power of counterfactual اینو خواهش می‌کنم گوش بدید، اینم از اون چیزایی که برای زندگی شخصی من خیلی رشد فکری خودم مهم بود دوست دارم به شمام منتقل کنم قدرت the power of counterfactual ، اول راجع‌به این بیابیم که counterfactual رو چه‌جوری ترجمه‌اش کنیم؟ ترجمه تحت‌اللفظیش و دیکشنریش توی کتاب فرهنگ لغات میگه خلاف واقع! ولی اون نیست ! counterfactual در اصل اینه… پس عذر می‌خوام که مرتب دارم لغت انگلیسی این وسط بکار می‌برم.. بعضیا راست می‌گن این حس رو دارند که وقتی دوزبانه میشه آدم یه ذره حالش بد میشه چرا هی از این زبان به اون زبون می‌پری ولی یه جا دیگه نمیتونی این کارو کنی! the power of counterfactual ، counterfactual اینه واقعه‌ای که می‌توانست اتفاق بیفتد و نیفتاد! میگه وقتی ما گذشته رو تفسیر میکنیم حواس‌مون به counterfactual نیست فقط اون‌هایی رو که اتفاق افتاده تفسیر می‌کنی! من مشابه این رو درمورد اثربخشی بعضی داروها گفتم بهتون، ببین گفتم شما ممکنه بگین ببین من این قرص رو خوردم سردردم خوب شد اساس خیلی از طب های جایگزین اینه مردمو به خط می‌کنن میگن بگو این جوشونده رو خوردم اصلاً دل دردم خوب شد، اینو خوردم تمام اضطرابم رفت! ولی می‌دونید در علم ایت کافی نیست باید سه حالت دیگر هم ببینی اونی که این رو نخورده و خوب شد!ه اونی که نخورده و خوب نشده! اونی که این را خورده و خوب نشده، این سه حالت دیگرم باید ببینی تا زمانی‌که این سه‌تای دیگه رو ندیدی اگر هزاران نفر رو دیدی که این شربت رو خوردن و خوب شدن هیچ ارزشی نداره! برای این‌که اون قسمت… اونا بهش میگن قدرت counterfactual یعنی اونی ک اون تو نیست! حالا جالبه ما به‌شدت گول می‌خوریم وقتی گذشته‌ی خودمون یا سیاست یا هرچیز دیگری نگاه می‌کنیم و یکی از انتقاداتی که من به تئوری توطئه دارم اینه: تئوری توطئه نه ازاین‌جهت که مثلاً اینا خیلی بدبینم یا همش نمی‌دونم سیاست تو همه چی می‌بینن نه! برا این‌که counterfactual رو نمی‌بینند به کسی بها بدید که counterfactual رو ببینه . Counterfactual مثل همون داستانشان شرلوک هلمزه! این سگه می‌تونست پارس کنه و پارس نکرده چرا پارس نکرده؟ حالا مثال براتون بزنم مثال سیاسی، مثال فردی! بسته به این‌که با کدومش علاقه دارید مثلا شما میای میگی ببین این مادر سخت‌گیر داشته مادر سخت‌گیر همش سرزنشش می‌کرده! اعتمادبه‌نفس کم شده! و رفته معتاد شده! گفتیم این اصلا کافی نیست هرچند خیلی قشنگه خیلی لوکسه! ولی میتونی بگی که خب ببین این مادر مثلاً این ویژگی هم داشته ولی این‌جوری نشده! مادر درعین‌حال خیلی هم مثلاً مسامحه کار بوده ولی این نرفته! مثلاً دوست‌دختر پیدا بکنه! چرا اون اتفاق نیفتاد، درحالی‌که ما تو آنالیزهامون اونو نمیاریم یا توی سیاست خیلی پررنگ‌تره! ببینید مثلاً خیلی از طرف‌داران توطئه من می‌گم غلط یا دروغ راستشو اصلا کار ندارم ، می‌دونی واسم ترور کندی رو اون گزارش وارن گفت که نه کار نهادهای دولتی نبوده! درصورتی‌که طرف‌داران تئوری توطئه میگن نه کار سی آی اِی بوده کار اف ‌بی ‌آی بوده! خودشون کشتنش! خب شواهد رو قشنگ وصف میکنند.. حالا شما بیا اون‌وری شو فکر کن، می‌تونستن ترامپ رو هم ترور کنند و نکردند! یعنی اینی ‌که اون واقعه اتفاق نیفتاده، اینم تو آنالیز شما باهات بها داشته باشه یا اینی که میگن نزدیک انتخابات میشه جنگ راه می‌ندازن برای اینکه انتخابات رو ببرن خب این اتفاق ترامپ نیفتاد ! خیلی از مفسرین این پیش‌بینی را می‌کردن که خب این یه جنگ‌ راه می‌ندازه و این‌که انتخابات محل دومش هم ببره! دوره دومش هم ببره و این انفاق نیفتاد! نمی‌خوام بگم ترامپ خوبه یا بد ! اصلا کاری ندارم فقط می‌خوام بگم که counterfactual یعنی اون چیزی که می‌تونست اتفاق بیفته و نیافتاد! اون رو هم باید تو محاسباتتون بیارید مثل این آدم معلوم بود از روز اول سرقت میکنه و به من نارو میزنه! خوب در اون‌جا هم می‌تونست بزنه و نزد! یا فلان جا هم شما گردنت زیر تیغش بود ولی کاری نکرد! اون رو هم با تو محاسباتت بیاری و چون counterfactual رو نمیاری، آینده رو نمیتونی پیش‌بینی کنی! یکی از صحنه‌های counterfactual که تو ذهنم مونده… حالا برای اینکه یه ذره از همه‌اش درس نباشه یه ذره تفریح هم باشه… یه فیلمی هست enemy of the gates ادامه دارد… یک ساعت تمام!
Document