بله ساعت 09:04 دقیقه 15 ام تیرماه است و با یک برنامه زنده دیگه در خدمت شما علاقهمندان عزیز هستم، تشکر دارم از پیگیری شما، امروز میخوایم یک کتاب دیگه رو به بحث بگذاریم به نام: How to stay smart in smart word?”” قبلاز اینکه بحث رو شروع کنم، راجع به live هفته گذشته صحبت کنم والا راستشو بخواین خودمم نمیدونم چهجوری شده که اگر شما از فیلترشکن استفاده کنید یا از خارج ایران وصل شید مشکلی نیست و قسمت دوم پیروزی های تجربه رو خواهید داشت ولی هم دوستانی که از داخل وصل میشن، نمیدونم آیا اشکال اینستاگرام هست،چی هست نشون نمیده! البته آمارش در بالای صفحه هست، یعنی اینکه تعداد پستهام میخونه، یعنی اون هست ولی قابل رؤیت برای اونهایی که از داخل هستن نیست، پس راهحلش اینه که یا از وی پی ان، فیلترشکن باید استفاده کنید یا اینکه میتونید تو جاهای دیگه مثل تلگرام یا یوتیوب اونو دنبالش کنی، چون من سعی میکنم همین فایل رو هم فوراً توی اون یکی شبکههای اجتماعی هم بزارم چون نمیدونیم این برنامه از کجا نشأت میگیره و چرا از بعضی کشورها و بعضی جهات قابلمشاهده نیست؟ خب اگه موافق باشید برنامهی امشب رو شروع کنیم اینم کتاب جالبیه امیدوارم بتونم تو همین جلسه به اون جمعبندی نهاییش برسم، کتابی است و بهنظر من بسیار ارزشمند! و تعجب میکنم که کارهای Gred Gigerenzer توی ایران خیلی شناخته شده نیست! ظاهراً ترجمه نشده خیلی از کاراش، این کتابی که خدمتتون هستم How to stay smart in smart word?”” چگونه در یک جهان هوشمند، باهوش و زرنگ بمانیم؟ من فکر کردم درست دوتا smart بکار برده ولی اسمارتی که برای ما هست بیشتر معنیش اینه سرمون کلاه نره، حواسمون باشه گومون نزنن، فریبمون ندن و مارو توی تله نندازن و از اون طرف اون smart world دوم بیشتر بههمین smart phone و شبکههای هوشمند و هوش مصنوعی و اینا برمیگرده پس دوتا smart ها شاید لازم باشه در ترجمه فارسی به دو لغت مختلف ترجمه بشه. Gred Gigerenzer آلمانی هست، مدتی در Max planck institesفعالیت میکرد، روانشناس هست و استاد روانشناسی بوده و الان یک مقدار اتاق فکرها و مؤسسات خصوصی و نیمهدولتی رو اداره میکنه، نکتهای که راجع به Gred Gigerenzer هست اینه که چند کتاب خیلی مشهور داره ولی همونطور که عرض کردم خیلی جای تعجبه که در ایران خیلی مورد استقبال یا قرار نگرفته یا من اطلاع ندارم اگر ترجمه شده، دوستان به من اطلاع بدن یکی از کتابهاش که تقریباً یک کار کلاسیک و شاهکار هست بنام ” “simple heuristis that make us smart مال 1999 ولی جزء کتابهای بسیار پراستناده و اصولاً میشه گفت یک جریان فکری رو Gred Gigerenzer با این کتابش ایجاد کرد حالا من راجعبه این توضیح میدم چون برای اینکه این کتاب رو بفهمید لازمه که اون کتاب 1999 اش رو مختصری خدمتتون بگم. یه کتاب 2007 دیگه هم داره که ظاهراً اونم ترجمه نشده و هر دوی اینا کتابای خوبی اند منتها نمیدونم کسی بخواد 1999 رو ترجمه بکنه آیا فرصت عرضه اش و مخاطبش هست یا نه ولی کتاب بسیار خوبی است. کتاب دوم او مال 2007 بنام gut feelings” ” گات میدونید به معنی اعما و احشا هست، این ترجمه تحت اللفظیش چیز جالبی نمیشه، میشه احساس شکمی ولی بیشتر منظورش احساس درونی است، چون ادامهی عنوان کتاب میگه : the intelligence of the unconscious میشه گفت درواقع هوش ناخودآگاه! حالا در این دو کتاب چه چیزی رو میگه، قبلاز اینکه توضیح بدم این heuristis هم از اون چیزاییه که ما نمیتونیم خوب ترجمش بکنیم یعنی معادل خوبی براش نداریم، بعضیها گفتن بش بگیم یافتار! حالا این چی هست و منظور Gred Gigerenzer از اینا چی بوده؟ الان مختصر خدمتتون میگم: ببینید بهصورت سنتی ما این باور رو داریم هرچی اطلاعاتمون زیادتر بشه، هرچی پردازشمون عمیقتر بشه، هرچقدر آلگوریتم ما هوشمندانهتر و پیچیدهتر بشه احتمالاً ما عقلانیتر تصمیم میگیریم و تصمیماتمون بهتر خواهد بود! منتها Gred Gigerenzer معتقده نه همیشه! میگه اگر جهان قوانین مشخص و قابلپیشبینی و دقیق داشته باشه اون عرض من درسته ولی نکتهای که هست اینه که خب ما توی نجوم قوانین دقیق داریم توی بخشی از مکانیک نیوتن قوانین دقیق داریم مثلاً تو همین کتاب 2022 اش چگونه در جهان هوشمند زرنگ بمانیم، میگه آره! اون مریخنورد و اینا یا اونا در واقع سفینههایی که میفرستند حتی به ونوس، به ناهید و اینا اینقدر دقیقه که دقیقاً در موعد مقرر به مدار میرسه یا فرود میاد و این ناشی از الگوریتمهای خیلی دقیقه! پس در جهانی که پایداره! دقیق و میشه گفت قوانین حاکم بر او خیلی از عدم قطعیت پیروی نمیکنه، کاملاً درسته! هرچقدر ما عمیقتر بیندیشیم، اطلاعات بیشتری جمع کنیم الگوریتمها و دستورالعملهامون دقیقتر باشه، بهتره میگه ولی جهان انسانی اینگونه نیست، جهان انسانی پر عدم قطعیته! پر پیشبینی نشده هاست، پر اموریه که از اصول منطق بهظاهر پیروی نمیکنند، یعنی ما قوانین حاکم برش بهدرستی نمیدونیم، در همین کتاب یه جایی از Richard feynman یک گزاره، یک نقلقول میاره، میگه شانس آوردیم الکترون ها هیجان و اینا ندارندد! راست میگه دیگه اگر الکترون هم میخواست هیجانی باشه و اراده داشته باشه برا خودش تصمیم میگرفت که نه! من الان عصبانی شدم، حوصله ندارم، قسمت زیادی از الکترونیک و فیزیک و برق و مهندسی زیر سوال میرفت و این سؤال و حالا صحبتش اینه: میگه گاهی در سیستمهای انسانی که درواقع سیستمهای پیشبینی ناپذیراند، پر از وقایع عدم قطعیت هستند یا به قول نسیم طالب که Gigerenzer به او استناد میکنه پر از قوهای سیاه هستند، یعنی وقایعی که قابل پیشبینی نشده بودند و میاومدن! در اون صورت گاهی افزایش اطلاعات شما و پردازش دقیقتر و منطقیتر شما جواب غلط میده! و شما رو گمراه میکنه، باید از قوانین ساده، خودمونی و سرانگشتی Rule of thumb پیروی کنید که اینا رو بهش میگن heuristis، حالا این heuristis رو چهجوری کشف کرد؟ مثلاً اومده بود دیده بود که وقتی از دانشجویان یا مردم آمریکا راجع به جمعیت شهرهای آلمان میپرسم، خود Gigerenzer آلمانیه! از اونا میپرسن که مثلاً کُن بزرگتره یا مونیخ؟ نمیدونم هامبورگ بزرگتر یا فرانکفورت؟ یه چیز عجیب متوجه شده بود امریکایی ها که اصولاً در دنیا مورد تمسخر قرار میگیرند به بیسوادی، بهخصوص از اینکه اطلاعاتشون از خارج آمریکا کمه! بهتر از جوانان آلمانی جواب داده بودن و او سوال داشت که چرا این اتفاق افتاده؟ و بعد وقتی نگاه کرده بود دیده بود که آمریکاییها اطلاعات ندارندد که جمعیت چقدره؟ همینجوریه از قوانین احساسی یا اصطلاحاً میگیم همین احساس درونیشون پیروی میکردند مثلاً فرض کن یه شهری اگر تیم فوتبال داره، تیم ورزشی مشهور داره به گوش ما خورده و آشناست و وقتیکه این آشنا بود طرف گفته پس لابد جمعیت این بیشتره و معمولاً درست درمیاد! یه شهری که بزرگتر هست معمولاً! نه هم همیشه! این قانون وجود قطعی نداره ولی معمولاً تیم ورزشی موفقتری هم داره و او از روی آشنا بودن اسم تیم ورزشی اش به این نتیجه رسیده بود که جمعیت این شهر بیشتره! یعنی درواقع از یک یافتار یا heuristis ساده پیروی کرده بود. یه heuristis خیلی قشنگی رو تو همین کتاب، این کتاب 2022 اش، اشاره میکنه و اونم اینه بهش میگن یافتار دایره یا circule heuristis میگه یه جا، دو جا در واقع! سرقت انجامشده، کجا دنبال قاتل بگرده؟ دنبال سارق بگردیم؟ عذر میخوام درمورد قتلم درسته! هر دوی اینا میشه! دو جا جرم مرتکب شدند مثلا شما فکر کن! یکیش توی تهران پارس است، یکیش تویی مثلاً نارمک است، احتمالی که محل سکونت اون مجرم کجا باشه، کجا دنبالش بگردیم خب میگه یکسری الگوریتمهای خیلی پیچیده هوش مصنوعی ابداع شده که سعی کنه محل اون رو پیدا کنه از روی نوع ابزار سرقت، طرز سرقت، ساعت سرقت و اینا و بعد کلی محاسبه انجام میده و از دادههای بزرگ پیروی میکنه مثلاً میگه احتمالاً در این نقاط شهر اون طرف! ولی میگه نه! متوجه شدن شما میتونی با یک یافتار یا heuristis ساده اونو پیداش کنی، دو تا نقطه رو میذاری دو سر یک قطر! قطر دایره، یه دایره رسم میکنی، بهاحتمال زیاد محل زندگی اون فرد اون توعه! حالا این برای دوستانی که اگر تو کار پلیس و اینا هستن و دارند این برنامه رو گوش میدن نکته اگر دنبال یک نفر میگردی مجرمه و میخوای ببینی خونهاش کجاست؟ یک سارقه؟ چی هست؟ دو تا محل سرقت رو بههم وصل کن، یه دایره بکش اون رو قطرش.. به احتمال زیاد توی اون دایره زندگی میکنه، بههمین سادگی! به اینها میگن یافتارهای ساده! حالا این میگه که در سیستمهای انسانی خیلی مواقع استفاده کردن از این یافتهها یا heuristis های ساده ارجح است به پیچیدگی! حالا این بحث کتابش رو با این مبحث شاید شروع کنیم، بد نباشه! پس این یه خلاصه ای میشه از اون دو کتاب قبلیش و در اون کتاب gut feelings احساسات درونی که گفتم: نگیم احساسات شکمی! میگه درواقع بخشی از این ناخودآگاه پردازش میشه! شما دقت کردید یه جاییی هست اطلاعات خیلی زیاده! ولی یه عده میان میگن نه به دلم نمیشینه! احساس میکنم یه جای کار میلنگه! کار این آدم نیست یا مثلاً این نمیتونه سارق باشه! این نمیتونه قاتل باشه! این نمیتونه درست باشه یا این بیزینسی که شما میگی درست درنمیاد یه جاییش ایراد داره! من نمیدونم چیه؟ تمام جداول آمارش درسته، تمام اصول حسابداریش درسته ولی به دل من نمیشه! و او دیده بود خیلی مواقع درست درمیاد! یعنی به دل من نمیشینه انقدرم دستکم نگیریمش! حالا بحث خودش را در این کتاب جدید ادامه میده میخوایم به این بپردازیم پس ببینید یه چالش خیلی جدی در علوم اعصاب و علوم رفتاری هست، اینم براتون بگم که تقریباً میشه گفت به قول امروزیها این اصطلاح زاویه داره! این با Daniel Kahneman و Teversky پس دارای زاویه میشه! یعنی او معتقده خیلی از چیزهایی که Daniel Kahneman میدونید اون درواقع برندهی جایزهی نوبل در اقتصاد که اشاره میکرد که انسانها پر از خطاهای شناختی هستند، پردازشهاشون پر از سوگیریه و انسانها تفکر نقاد ندارندد و اصولاً سعی میکرد تفکر نقاد رو درس بده، اشارهاش این بود که نه خیلی مواقع اتفاقاً بهنظر میاد! یه جاهایی اون غلط دربیاد، باید به اون ندای درون یا اون سوگیریهای غیر منطقی بهظاهر غیرمنطقی بها بدیم، میگم کتاب دشواری است من یه نگرانیام دارم که کارهای Gigerenzer تعبیر بشه به علمستیزی به خرد ستیزی یعنی یه عده بیان بگن که دیدی گفتی مثلاً علم همش خطا میکنه! دیدی گفتیم این پردازش خیلی پیچیده و ریاضیات و حسابگری و اینا درست جواب نمیده؟! من همینجوری یه چیز میگم درست درمیاد! او به این راحتی تصمیم نمیگیره بگه هرجا حس کردید دلتون یه چیزی میگه! قوانین اون رو سعی در پیدا بکنه و درواقع متوجه بشه کجاها هست ندای درون شما بهتر از محاسبات پیچیده ممکنه جواب بده؟ مثلاً یکیش همین پیدا کردن محل سکونت مجرم است که درواقع میگه که با قوانین ساده شما میتونین اون رو پیدا بکنید یا مثلاً مثال های دیگهای میزنه مثلا کدام مشتری خرید میکنه؟ چه کسی مشتری خوب شما خواهد بود؟ کدام ازدواجها پایدار میمونند؟ چه کسانی بعد از آزاد شدن از زندان دوباره جرم مرتکب میشن؟ میدونید اینایی خیلی چیزاییه که خیلیا جوابشو دوست دارند بدونن ولی باوجود داشتن محاسبات خیلی پیچیده و آمار زیاد متأسفانه نمیتونن به جواب برسند، من اگه بخوام کتاب چگونه در جهان هوشمند زرنگ بمانیم رو یه خلاصه بکنم، فکر میکنم که چهار بخش، چهار مبحث داره، چهار درواقع گزینه داره، یکیش همین قضیه قدرت یافتارها بود که Gigerenzer درواقع به مرور کارهای قبلی خودش میپردازه! دومین نکتهای که او درواقع بهش میپردازیم: مسئله قدرت هوش مصنوعی است، حالا من سریع اینا رو توضیح میدم بعد با جزئیات تو دقایق بعد توضیح میدم، تو قسمت قدرت هوش مصنوعی اینو میگه، میگه: یک جریان خیلی قوی شکلگرفته بهخصوص به کمک این ماشینهای جستجوگر و داده بزرگ big data که میگن ببین مسائل پیچیدهی بشری مثل طلاق، مثل جرم، مثل موفقیت و گل کردن در هنر! اینا درسته که شما میگی پیچیدهست و مثل مدارهای سیارهها بهراحتی قابلپیشبینی نیست! ولی اگر ما به اندازهی کافی داده جمع بکنیم، نه در حد ترابایت! در حد پتا بایت! داده جمع بکنیم و به کمک یادگیری عمیق، deep learn هوش مصنوعی اینا رو پردازش بکنیم، میتونیم رفتار بشر را تا حد قابلتوجهی پیشبینی بکنیم و به شما بگیم کِی جدا میشه ؟ همسر ایدهآل برای شما چیه؟ در کدام رشته موفق خواهی شد و درواقع کدام بیزینس در آینده موفق خواهد بود؟ پس یه بخش به نقد این رویکرد خیلی قوی هوش مصنوعی میپردازیم! حالا خواهم گفت که او کجا تفاوت پیدا میکند؟ مثلاً در نقطه مقابل این میشه گفت مروجان یا میشه گفت به نوعی پیامبران هوش مصنوعی قرار داره که میگن بشر بهزودی شاه تو ده سال آینده مثلاً raymon رو نام میبره raymon cortsvile که میگه قدرت پردازش ابر کامپیوترا اینقد زیاد میشوند که به مرحلهای میرسیم که بهش میگن singularity که درواقع این از هوش انسان میزنه جلو و انسان دیگه نمیفهمه این داره چی کار میکنه و این ماشین درواقع قدرت رو میگیره، دست و رفتار بشر رو خیلی راحت میتونه پیشبینی بکنه! اون منتقد این تفکره! پس بخش دیگری که در کتابش هست، نقد رویکرد هوش مصنوعی یا اِی اَی مدرن است، قسمت سومی که بگم تو کتابش هست به مسئله surveillance caoitalismمیپردازه، کاپیتالیسم نظارتگر! حالا اینم دوستانی که حالا باهاش آشنایی دارند می دونند منظور چیه دیگه منظور اینه که میدونید که شما هر دفعه با همین شبکه اجتماعی که دارید این برنامه زنده رو نگاه میکنید، صفحات اینستاگرام را جستجو میکنید توی گوگل یه چیزی رو سرچ میکنید، یه مقداری از اطلاعات شما پردازش میشه، امیال شما، باورهای شما، علایق شما، به کدوم عکسا بیشتر نگاه میکنید، کدوم سایتا رو بیشتر میرید؟ و درنتیجه مدعی هستند و این ادعا از اون ادعاهای نظریه توطئه نیست! چیزیه که خود افراد اعتراف میکند، فیسبوک زاکربرگ، اعتراف میکنه، لری پیج توی گوگل اعتراف میکنه که ما این دادهها را پردازش میکنیم و در جهت بازاریابی ازش استفاده میکنیم و از این راه پول درمیاریم! بخش دیگر کتاب به نقد این قضیه پرداخته! اینجا برخلاف هوش مصنوعی که در واقع دیگر Gigerenzer معتقده نه! اونقدری هم که ما فکر میکنیم نمیتونه از انسان جلو بیفته، درواقع اگر شما زیر تیتر کتاب را نگاه کنید: why human itekkigence still beats algorithms ، چرا هوش انسانی هنوز از پس الگوریتمهای هوش مصنوعی برمیاد یعنی ما هوشمون بیشتره؟ اینجا ابراز نگرانی و درواقع بدبینی میکنه! میگه نه این کار میده دستمون، اینا دارند همه چیه زندگی ما رو رصد میکنن و به نوعی دارند مارو درجهت مطامع بازاریابی و عرضه ی کالا مورد استفاده قرار میدهند، پس یه بخش دیگر کتاب اینه! راجع به اون توضیح خواهم داد و قسمت آخرش بهخصوص برای اونهایی که از برنامههای زنده، دوست دارن یه چیزی در زندگی عملیشون بهره ببرند، چند تا مقاله خیلی قشنگ، خیلی جالب رو بهش اشاره کرده که مقوله اعتیاد به شبکههای اجتماعی و اینترنته! و خیلی قشنگ نقد کرده که چگونه شما اون تو گیر میکنی! و درواقع همین برنامه بهظاهر دوستانهای که ما داریم کلی روش تفکر شده که بتونه من و شما رو یه جوری معتاد کنه و ما این تو گیر کنیم البته نه به نیت اینی که بخواین شما مطلب علمی یاد بگیری، به نیت اینی که سرتون تو گوشی باشه و وقتی سرتون تو گوشی هست زمان زیادی رو از شبکه استفاده کنی که او بدون تبلیغات به شما بفروشه و درواقع پول دربیاره و درواقع اعتیاد به شبکههای اجتماعی و آثار مخرب رو نقد کرده! پس این یک چارچوب کلی از کتاب بود اگر موافقین به یه ذره جزئیات بیشتر بپردازیم، فکر میکنم اون قسمت آخرش بهخصوص اگر نوجوان تو خونه دارید خیلی مهمه! چند تا مقاله بود که حتی من خودم یه جوری واقعاً مشه گفت بهتم برد، رفتم اصل مقاله رو درآوردم براتون یه مقدار توضیح خواهم داد و یه مقدار graph و اینا هم داره! و نقلقولهای قشنگی هم داره! یکی از نقلقولهاشو بزارید برای شروع کار براتون بخونم: The problem isn’t the rise of smart machines up the dumbing down of humanity (آسترا تیلور) میگه مشکل ظهور ماشینهای هوشمند نیست! عذر میخوام ابله شدن انسانهاست ! یعنی میگه همینجور که داریم میریم جلو خب اونا دارند هوش مصنوعی زیاد میشه! از اون طرف هم انسانها دارند افت میکنن ساده میشن! راحت گول میخورن راحت تو تله میافتند، اصلاً قدرت تحلیلگری چون تضعیف میشه و به نوعی برده یی این ماشین عظیم اعتیادآور میشوند و البته باز یه چیز هم خدمتتون بگم. Gigerenzer جزء آدمهای نسبتاً مثبته! مثل ما این کتابsurveillance caoitalism از shoshaana zuboff رو بخوایم مقایسه بکنیم او خیلی بدبینانهتره!س او یه جوری از رویکرد منتهی الیه ضد سرمایهداری و چپ نگاه میکنه که همه رو بدبخت کردن! همه رو دارند در واقع به نوعی برده ی خودشون میکنن! نه Gigerenzer واقعاً منصفانه است و اگر شما آثارش رو بخونید تئوری توطئه اینکه بشریت رو به انحطاطه! آی بدبخت شدیم دیگه همهمون برده ماشین خواهیم شد و آیندهای نداریم! به قول معروف اون ادبیاته doom and gloom در واقع شوم و آیندهی تاریک نیست! خیلی دید روشن و قشنگی داره و راهکارهایی هم ارائه میده! بهخصوص فصل آخرش خیلی قشنگه که والدین چه بکنند و هوشیار باشیم! چهجوری از این شبکهها خوب استفاده بکنیم و تو دامی که برای ما طراحی کردهاند که فقط سرمون تو گوشی باشه و هی نگاه کنیم، نیفتیم! خب بیاین ببینیم این روانشناس برجسته چه چیزهایی را داره؟Gigerenzer واقعاً جزء اون افراد برجسته و اون شاید صد نفر اول توی حوزه روان باشه، بحث رو با فصل اول شروع کنیم، اینجوری شروع میکنه میگه که درواقع یک اصطلاحی توی هوش مصنوعی ها داره شکل میگیره AI beats humans اِی آی نسان رو میبره! و اینا میگن که ببین ما اینقدر اطلاعات جمع کنیم، اینقدر اطلاعات جمع میکنیم که راحت میتونیم خیلی از چیزایی رو که شما فکر میکنی قابلپیشبینی نیست، قابلاندازهگیری نیست یا اصلا این چیزا اصلا دست آدم نیس، اینا جزء اسرار جهانه! اصلاا کار خداوند! ما میتونیم براتون پیشبینی خواهیم کرد، به این میگه رویکردی که مد شده بنام AI beats humans ای آی از پس انسانها برمیاد! ای آیی هم یعنی هوش مصنوعی! خب بحثش رو با سیستمهای همسریابی آنلاین شروع میکنه، مثلاً چند تا سیستم رو نقد کرده! حالا من چون دیگه واقعاً نمیتونم جزئیات کتاب رو بگم و زمان میبره میخوام فقط یه محتوا شو بگم بعداً دوس داشتید خود کتاب رو بخونین، ترجمش و … مثلاً چند مؤسسهی دوستیابی رو بررسی کرده مثل مؤسسه PARSSHIP که تو آلمان خیلی فعاله و ادعا میکنه هر یازده دقیقه یه نفر عشقشو اون تو پیدا میکنه! یعنی شما میری اون تو ثبتنام میکنی، هر یازده دقیقه یکیو پیدا میکنی که بعد اون تو اعلام میکنی من عشق زندگیمو پیدا کردم، واقعاً من این نیمهی گم شده ام بود، منتها بحث جالبی که کرده یا مثلاً مؤسسه Ellite هست elitsingles یا باز مؤسسه elitesingles ادعا میکنه هر ماه هزار نفر ادعا میکنند عشق زندگیمون رو پیدا کردیم، پس اینم یه آمار دیگه یا مثلاً چند مؤسسه دیگر را نام برد مثل okcupid plenty of fish اسمش جالب پر از ماهی! ماهی منظورش اون جفت یا پارتنر هست، سیستم مک دات کام و tinder. منتها تحلیلی که از اینا کرده میگه که بسیاری از اینا نمایش تبلیغاتی است، مثلاً همون مؤسسه الیت که میگه در ماه هزار نفرو بههم پیوند میده و هزار نفر ادعا میکنند این دیگه در آزمون خطاهای پایه ی Daniel Kahneman استفاده میکنه، وقتی نگاه میکنی در همون صفحه من الان درواقع صفحه ی اول رو در مقابلم دارم، میگه در ماه 381 هزار نفر به اعضای ما اضافه میشن میگه خب یه ذره شما تفکر نقاد داشته باشید، 381 نفر هزار، نفر از اونا در ماه بتونند شریک زندگیشونو پیدا کنند، خیلی کمه! شما تو خیابون راه بری امکان اینکه بتونی پارتینرت رو پیدا کنی خیلی بهتره تا همچین مؤسسه ای و درواقع تحلیلی که کرده گفته اولاً قابلپیشبینی نیست، بسیاری از مواقع این افراد match نمیشن و یه بخشیش تبلیغاتِ این سیستمهاست! خلاصه فصل اولش اینه که خیلی به اینا دل ندید، اینا ادعا میکنند ما به کمک هوش مصنوعی، قشنگ باورهای شما رو پیدا میکنیم، باورهای طرف مقابلم پیدا میکنیم میگیم شما دوتا برای هم خوبید و عملاً میگه هیچ پیگیری هم نکرده که ببینه حالا این دو نفر که همدیگه رو دیدن که تازه گفتیم هزار نفر در ماه این ادعا رو میکنند از 300 هزارنفری که در ماه اضافه میشند یعنی 380هزار نفر رو شما بریزی توی استادیوم بگی شما با هم اختلاط کنید به قول معروف امکانِ اینکه شما بیای بگی: یکی رو پیدا کردم، عجیب مچِ خودمه خیلی راحت خواهد بود و عملاً اینا هوش مصنوعیشون یک فریبه و یا مثلاً از حقههای جالب دیگه اینو یاد میکنه، اینا رو بخونید بهخصوص برای اطلاعات عمومی و به قول معروف دانش شبکههاتون خوبه، میگه وقتی شما توی مثلاً match.com ثبتنام میکنی، اولش پولی نیست شما مشخصاتت رو مدی من به چی علاقه دارم، ورزش چی دوس دارم، قدم چیه، چهجور شخصیتی دارم، یه سری پرسشها از شماُ میگیره، بعد تو همون چند دقیقه اول میگه اوه یه نفر پیدا شد، دقیقاً شما رو دوست داره و میگه عاشق شماست! این دقیقاً شما مرد یا زن مورد نظرش هستید، منتها خب چون شما ثبتنام نکردید درواقع به شما معرفیش نمیکنه! بعد شما میری سریع پول میریزی، ثبتنام میکنی و بعد دیدی که … خب بعد تو میری اون آدم رو پیدا کنی میگه اون هم یکی دیگه رو پیدا کرد! رفت! و منتظر میشه تا یکی دیگه پیداش شه و هرچه منتظر میشه، دیگه کسی پیدا نمیشه و این کار به کنگره آمریکا و اداره ی تخلفات کشیده بود! اونا متوجه شده بودند، این پیامهایی که قبل از اینکه پول بدی برای شما میاد: فلانی عاشق شماست، فلانی شما رو لایک کرد، فلانی پروفایل شما رو دید حسابی شما رو پسندیده؛ اینا ساختگی اند و حتی او اشاره کرده بود که اینجوری به شما میگن که آخ جون! اینجا پر آدمایی ان که عاشقه منن! پس من برم زود عضو بشم و بعد تا عضو میشی میبینی از اون آدمایی که عاشق شما بودن، خبری نمیشه! مثلاً دیده بود که درواقع پونصد500 هزار عضو بیست و چهار ساعت بعد از دریافتِ درواقع بعد از ثبتنام، ایمیل دریافت کردند که شما یه نفر برات پیدا شده ولی بهمحض اینکه ثبتنام کردن دیدند نه! اون نفر رفت، اون منصرف شد! حالا وایمیستیم یکی دیگه پیدا شه و عملاً کس دیگه پیدا نمیشه، پس میبینی خیلی از اینها حقههایی هست که مثلاً اون اداره ی میشه گفت trade ، اداره بازرگانی آمریکا این را حتی سوء کرده که ببین سر مشتریها داری کلاه میذاری! از الکی میگی کلی match برات پیدا کردم، وقتی طرف پول میده پای عمل میرسه، مچی رو نمیکنی! و درنتیجه کاهش پیدا میکنه! خوب او اشاره کرده بود که آره! پس میبینید این هوش مصنوعی اونقدری که ما فکر میکنیم پس تو این قضیه موفقق نبوده! چرا موفق نیست؟ میگه برای دلایل مختلف داره دیگه! اولاً رفتارهای بشر قابلپیشبینی نیست! هرچقدم داده ی زیاد داشته باشی ثانیاً خیلی از اینها ممکنه اصلاً اون تو حقه باشه! فریب باشه! طرف غلط نوشته دروغ نوشته یا اصلاً در واقع ما قوانین اینی که کی از کی خوشش میاد رو هنوز بهدرستی نمیدونیم حتی اگر ما میلیونها درواقع داده، میلیونها که چه عرض کنم! میلیاردها داده داشته باشیم مثلاً او !اشاره میکنه میگه آره 1997 تونستیم قهرمان شطرنج جهان را به کمک هوش مصنوعی ببریم یا آلفا زیرو مثلاً میتونه تو هر بازی ورق و اینا شما رو ببره یا یک کامپیوتری ساخته بودند بنام واتسون در 2011 که همه شرکتکنندهها رو توی اون jeopardy که اطلاعات عمومی تو آمریکا هست برده بود میگفت آره تو اینا میشه ولی تو حوزههایی که رفتار پیچیده است مثل پیدا کردن همسر یا درواقع به نوعی پیشبینی کردن اینه که کی جور مرتکب میشه؟ کی مرتکب نمیشه؟ ما بهراحتی نمیتوانیم از هوش مصنوعی استفاده کنیم، این دیدگاه اوست! البته اینم بهتون بگم وقتی من این رو مقایسه کردم مثلاً شما اگر کتابی قبلاً یادتون باشه براتون معرفی کرده بودم Daniel Susskind که صحبت کرده بود، او خیلی مثبت نگاه میکرد، میگفت: از طریق یادگیری عمیق اون deep learning که در هوش مصنوعی هست، ما بهزودی میتونیم مرزهای خیلی مهمی رو رد بکنیم و در واقع این سوالاتی که درواقع Gigerenzer میگه شدنی نیست رو شدنیش کنیم! حالا باز مثالهای دیگری میزنیم مثلاً در فصلهای بعدش، اینا خالی از لطف نیست شما مثالهاش رو نگاه کنید و یه جوری به قول معروف گوشی بیاد دستتون یکی از مثالهایی که… این مثال خیلی شایعه! میگفتن که مرکز کنترل بیماریهای عفونی آمریکا همیشه دنبال این بود که من بتونم الگوی رشد آنفولانزا رو پیشبینی بکنم، مثلاً تعداد زیادی ایستگاه بزارم از مردم مثل همین کویید 19 هست، نمونه از بینیشون بگیرن، از خلطشون بگیرن کشت بدن، بررسی کنند ببینن آنفولانزا چهجوری تو آمریکا رشد پیدا میکنه ؟گوگل در سال درواقع 2009 اینا ادعا کرده بود که نه! من اتفاقاً میتونم باهوش مصنوعی به شما الگوش رو نشون بدم و الگوی من از روی جستجویی است که افراد از علایم آنفولانزا میکنند یعنی هر کسی که وقتی سردرد میشه و آبریزش داره، استخوان درد داره، میره تو گوگل سوال میکنه این علایم چیه؟ درمانش چیه؟ اون تو تایپ میکنه و بعد من از روی هوش مصنوعی میتونم ببینم که یه شهری چرا همه دارند این رو سوال میکنن؟ پس یه سوش جدید اومده! بعد شهر بعد کجاس؟ همون جور میره جلو و بعد یه سری نمودار رسم میکنه که ببین چقدر قشنگتر از cdc اون مرکز کنترل بیماریها، من میتونم رشد آنفولانزا رو پیشبینی کنم! صرفاً از روی لغاتی که مردم تو گوگل جستجو میکنند، خب مثلاً Gigerenzer نشون داد که این خیلی قشنگ میرفت جلو تا یکی تو 2009 و دیگری تو 2015 بهطرز فاحشی دچار اشتباه شد! چهجوری میگه؟ تو 2009 الگوی آنفولانزا عوض شد و بیشتر با علایم اسهال و درد شکم اومد! و ماشین هوشمند گول خورد و اشاره کرد که هیچ نشانی از افزایش آنفلوانزا نیست! درصورتی که کل شهرو برداشته بود تا 2013 عذر میخوام تو 2013 اتفاق چی شد؟ به دلایلی مرد مثل این که کنجکاو شده بودند آنفولانزا بشناسند! ترس تو دلشون افتاده بود اونایی که اصلاً مریضم نبودن شروع کرده بودند علایم رو چک کردن از توی اینترنت و یه پیک خیلی بلند زده بود که گفته بود یک موج شدید آنفولانزا است، درصورتیکه موج آنفلوانزا نبوده! موج کنجکاوی مردم به جستجو کردن علایم هوش.. علایم آنفولانزا بوده و هوش مصنوعی به غلط اون رو تعبیر کرده بود! حالا باز مثالهای خیلی زیادی رو میزنه که بعضیاش واقعاً بامزه است! یعنی حالا ممکنه شما بگین که خب این منتقد هوش مصنوعیه! این مثالها رو رفته گشته! تو کلی موارد پیدا کرده، مثلاً اومده دید که وقتی یه دایده بزرگ رو پردازش بکنی، بین غرق شدن آدمها در استخر تعداد فیلمهایی که nicolas cage در آن سال بازی کرده، یه همبستگی خیلی بالا وجود دارده! یعنی هرچی nicolas cage بیشتر تو اون سال فیلم بازی کرده، تعداد بیشتری غرق شدند و دو تا منحنی اینا در این دادهی بزرگ چقدر رو هم سواره! یا باز یکی دیگه نشون داده بود که تعداد افرادی که دکترا در جامعه شناسی در سال میگیرن در آمریکا، خیلی دقیق منطبق دراومده با تعداد پروازهای هوافضای غیر تجاری به خارج از جو زمین! که میدونی هیچ ربطی نداره! بازی جالبترش تعداد آدمایی که براثر سوختگی میمیرند ارتباط عجیبی داره با سن Miss america یعنی اون بانوی درواقع ملکه زیبایی آمریکا ! در صورتی که شما میتونی فکر کنی عملاً نداره! و از همه جالبتر اینه که میگه یک همبستگی 99 درصد داره، میدونیم R 99 درصد تقریباً یکیه! دیگه اصلاً رد خور نداره، این دوتا رو هم منطبق اند! میزان ازدواج در ایالت مِین در آمریکا دقیقاً منطبق با مصرف سرانه ی مارگارین در آمریکاست! میگه وقتی شما داده خیلی عظیم داری، ممکنه ارتباطهای خیالی پیدا کنی و این ارتباط خیالی رو به خطا بهعنوان یک کشفی علمی تلقی بکنی یا باز در کتاب پر از عکس و تصاویر هست که جاهایی که سیستم هوش مصنوعی خطای فاحش کرده، مثلاً یه جایی رو اومدن بهصورت موازی زرد و آبی رنگ کردن و از هوش مصنوعی پرسیدند: بهعنوان شناسایی اشیاء این چیه؟ گفت اتوبوس مدرسه است یا مثلاً فرض کنید که یه جای دیگه اومده یک سری خط و خطوط اینجوری رسم کردند و کنتراستشو یه دستکاری کردند و این چیه؟ سیستم هوش مصنوعی گفته: این گیتاره! یعنی اینکه گفته ببین اصلا چه خطاهایی این سیستم میکنه و در واقع گفته این سیستم داره بیشازحد فروخته میشه به مردم که میتونه و این خطاهای فاحش خواهد کرد و بههمین دلیل در این کتاب ادعای Gigerenzer اینه که این اتومبیلهای خودران به این زودی نخواهند اومد! یعنی معتقده که رانندگی خیلی عدم قطعیتش بالاست و ممکنه مثلاً تو اتوبان بهصورت کروز بتونه بره یا تو بعضی جاها بتونه بره ولی به این راحتی نمیتونه وارد شهر بشه! برا اینکه عدم قطعیت بالاست! یه دیدگاهه دیگه! و البته ادعا میکنه که من متخصص هوش مصنوعی نیستم ولی متوجه خطاهای شناختی که توی این حوزه در مروجان این قضیه یا باور کنندگان اون هستن، دارم! حالا میگم اینا رو خودتون بخونید شاید نکات جالب باشه، باز یکی دیگهاش که بهنظرم جالب بود بهش میگه : اسطوره تانک روسی! این اسطوره یا افسانه لجند The Russian tank legend که میگن درمورد نقایص هوش مصنوعی اینه! برای اینکه اینجوری بهتون بگم دوستانی که شاید من خودمم اطلاعاتی ندارم! از همین کتابها یاد گرفتم ولی بدونند آموزش عمیق deep learning یادگیری عمیق چگونه است؟ این شکلیه! فرض کنه به یک ابرکامپیوتر تعداد زیادی عکس از یه چیز نشون میدهند و میگن خودت بگرد و این قانونمندش کن! و بفهم چیه و بعد عکسهای جدیدتر رو بر اون اساس شناسایی کن مثلاً یکی از مشهورترینش که اینو مثال میزنند بهعنوان خطا! البته این قدیمیه و خیلیها میگن دیگه اغراق شده! الان هوش مصنوعی خطا نمیکنه ! برای ماهواره بر اینکه بتونه تانکها رو درواقع شناسایی بکنه و آدم نشینه اونجا! یکییکی دنبال تانک بگرده! اومده بودند تعداد زیادی عکس از تانکهای روسی رو تو زوایای مختلف به کامپیوتر نشون داده بودند و در مقابل تانکهای آمریکایی! و بعد دیده بودن که بعد از یه مدت چند هزار تانک رو دیدن! بالاخره هوش مصنوعی میتونست تانک رو راحت بگه این آمریکاییه! این نوع روسیه! این آمریکاییه! این روسیه و تو اون سمپل دیده بودند شاهکار! دیگه این اصلاً با سرعت بالا عکسا رو غربال میکنه! و مشخص میکنه منتها میگه بعد اومدن توی واقعیت نگاه کنند، از این به بعد بیایم پیشبینی کنیم، دیدن با کمال تعجب هیچ نتونست درست عمل کنه! و خطاهای فاحش کرد مونده بودن که تو که اینهمه تو اون تستهای قبلی درست عمل کردی! میگه جوابی که پیدا کرده بودند این بود که تمام عکسهایی که اینا تو آرشیوشون از تانکهای روسی داشتن، در هوای ابری بوده! و تانکهای آمریکایی در هوای آفتابی! و درواقع هوش مصنوعی بین تانکها تفاوت پیدا نکرده بوده! بین ابری بودن یا غیرابری بودن پیدا کرده بوده! این یقین میگن از اون legend و افسانهها یا اسطورههاییه که برای هشدار تو کتابها درس میدهند! حالا چقدرش راسته چقدرش اغراقه نیست! و من فکر میکنم که یه مقداری Gigerenzer داره ! اغراق میکنه هوش مصنوعی خب رشد میکنه و بزودی میتونه خیلی از این مشکلات رو حل بکنه یعنی اینقدری هم که تو میگی ناامیده و امکان نداره براحتی بتونه رانندگی بکنه و اینا! کتاب مال 2022 !ولی ممکنه که تو همین آینده این اتفاق بیفته اینم از اون چیزایی که میخوام دوستان روش فکر کنین، فکر میکنی مثلا پنج سال آینده، ده سال آینده تاکسی خودران فراگیر میشه؟ یا اینکه نه! به بنبست میخوره چون یه جاهای اشتباه های فاحش میکنه! مثلاً دوچرخه رو با شیر آب اشتباه میگیره یا ممکنه که اصلا یه کامیون رو نبینه! بره صاف تو دلش! خب این بحثی بود که توی چند فصل اولش داره و اشاره میکنه که ما درمورد توانمندیهای هوش مصنوعی باید با اصطلاحاً احتیاط! نگاه کنیم، منتها عزیزان من بزارید چند تا نکتهای رو که بهعنوان نکات روانی میگه نگاه کن! میگه یکی از دلایلی که هوش مصنوعی نمیتونه اینه که مفهوم قصد و نیت رو متوجه نمیشه! باید بتونه قصد و نیت رو متوجه بشه و حتی قصد و نیت پیچیدهتر! مثل نیتهای پنهان یه مثال براتون بزنم این مثال خودمه ولی شبیه این رو تو کتابش زده! شما این صحنه رو زیاد تو مهمونی ها دیدین مثلاً مهمون نشسته !صاحبخانه هست طرف نیگا میکنه اوخ اوخ ساعت یازده و نیم شد و صاحبخونه برمیگرده میگه فردا که تعطیله! شما این گفتوگو را چهجور تحلیلش میکنید؟ بهظاهر یه گفتگوی خیلی ساده است که شاید حتی بچههای ده، دوازدهساله هم متوجه شدن! اخ اخ ساعت یازده و نیم شد و او میگه فردا که تعطیله! بههمین نگاه کنید، این یکی از پیچیدهترین شاهکارهای ذهنه! ساعت یازده و نیم شد، یعنی دیر شده فک کنم باید بریم! اجازه بدید رفع زحمت کنیم! ولی اینا رو نمیگه اینا مستتره! و درعینحال صاحبخونه برمیگرده یه تعارف بهطرف میزنیه میگه نه بمونید! دوست داریم از محضر شما بیشتر استفاده کنیم اگر نگرانیت اینه که دیروقته و ما میخواهیم بخوابیم فردا تعطیله! خیالتون راحت ما نمیخوایم بخوابیم بمون و بیشتر از محضر شما لذت ببریم! به این میگن pragmatics (پراگماتیکسِ کلام) در ورای این، یک پدیده بسیار پیچیدهای بنام mentalization، ذهنی سازی هست یعنی من نیت اونو میخونم! اون نیت منو میخونه! و بدون اینه که ما نیت هامون رو مستقیم با هم، درواقع تبادل کرده باشیم، به نوعی متوجه میشیم! حتی شما متوجه میشی که این حرف تعارفه! یا واقعیته! درصورتیکه هوش مصنوعی اصلاً نمیتونه این رو تفسیر کنه یعنی چی؟ طرف میگه ساعت یازده و نیمه! بعد اون برمیگرده میگه که فردا تعطیله! یعنی اینا چهجوری.. میگه: باید شما بتونی اون ذهن خودت رو به نیت بعدی منتشر بکنی، اجازه بدید راجعبه این پدیده بسیار جالبِ mentalization ذهنی سازی که یکی از شاهکارهای ذهنه! اصلاً من یک برنامه جدا بزنم چرا؟ چون متوجه شدند خیلی از اینایی که ما تحت عنوان اختلال شخصیت! افرادی که دچار اختلال مرزی هستند یاد میکنیمريال تو این بخش ایراد دارند و تازه این ایراد در حالت عادی نیست، وقتی هیجانی میشن پیدا میشه! یعنی وقتی شما هیجان داری! اضطراب داری! دلشوره داری! برمیگرده میگه ساعت یازده و نیمه، ممکنه اینجا دیگه نکته رو نگیره! خو یعنی چی؟ میگی چیکار کنم؟ یازده و نیمه؟ خب یازده و نیمه دیگه! یعنی چی یعنی مثل من الان بکنم دوازده؟ اونجا دیگه نمیگیره! میگن این خطای mentalization زیرساخت بسیاری از اختلالات روانه! و این یک شاهکاریه که ذهن بشر داره! و میتونه نیت رو در دیگران شناسایی بکنه، به کمک وجه پنهانی از کلام، که ما بهش میگیم pragmatism بههرحال شما از همین الان شروع کنید این پراگماتیسم ها و نیت خوانی ها رو نگاه کنید، ببینید چه تنوع عجیب غریبی داره، و همان گفتهها را اگر شما یادداشت کنید اصلاً هیچ مفهومی نداره! ولی وقتی تا میخونی اهان تو ذهن این بوده! توی ذهن اون اون یکی بوده! مثلاً فرض کن طرف میاد میگه که این پیراهنه بهم میاد؟ ول کن پدرش مریضه! یعنی چی؟ این پیراهنه بهم میاد؟ یعنی من میخوام اینو برای مهمونی بپوشم که بریم اونجا! میگه نه نریم مهمونی! پدرشون مریضه! فکر کنم نریم مزاحمش بشیم! ببین این دیالوگ! اون وسطش از کجا میاد! اون وسطش پراگماتیسمه که از mentalization میاد، او یکی از قسمتهایی که خیلیخوب میگه، میگه که هوش مصنوعی این قسمت رو نداره و تا اینو نداشته باشی نمیتونی بخش زیادی از رفتار انسان رو پیشبینی بکنی! خب بریم قسمت دیگری از کتاب رو نگاه بکنیم! یه قسمت خوب دیگه داره دوستان! اگر در ذهنتون هنوز با قسمت قبل کلنجار میرید، یه وقفه بزارید! میخوایم به این قسمت برسیم قسمت خیلی مورد علاقه منه! ببین نمیدونم چهجوری بگم یه ذره دشواره! دارم سعی میکنم یه جوری خدمتتون ارائه اش بدم که تأثیرگذار باشه چون از اون چیزاییه که خیلی به درد زندگیمون میخوره! شاید اصلاً بذارید یک کتاب… بذار برای اینکه راحتتر این مفهوم رو جا بندازم براتون اولاً دوتا مطلب براتون معرفی میکنم every think is obvious once you know the answere “همهچیز مشخص است وقتی جواب را بدانی” کتابی بسیار خواندنی، یک شاهکار روشنگر! از DUNCAN J.WATTS 2011! من قبلاً به این کتاب اشاره کردم، توی مبحث افولِ بتاماکس، میگه … این کتاب حرف اساسیش اینه، میگه وقتی جواب رو میدونی همهچی روشنه! این کتاب رو تو ذهنت نگهدار! خب اینو یه جا نگه دارید، توی این حافظه ی کار کردید! اساس کتاب اینو میگه به این شکل براتون بگم میگه وقتی شما میخوای یه واقعه ای رو توضیح بدی، وقتی اون واقعه اتفاق افتاده بهراحتی میتونی علت هاش رو پیدا بکنی مثلاً چی شد فلانکس تصادف کرد! چی شد فلانکس طلاق گرفت! چی شد فلانکس خودکشی کرد! چی شد انقلاب شد! چی شد جنگ شد! بهظاهر خیلی تفسیرهایی قشنگی میاد میگه، مسگه ولی اگه راست میگی قبلش پیشبینی کن! بهطرز عجیبی نمیتونی! اینو تو ذهنت نگه این اساس شاهکار DUNCAN J.WATTS ! اونایی که میخوان عمیق بیندیشند، باید این کتاب رو بخونند، برای روانشناسان بالینی و روانپزشکان یه مقاله 1973 یک کلاسیک حساب میشه! PAUL MEEHL در عظمت PAUL MEEHL شما شک نمیکنید او تأثیرگذاره! مفاهیم خیلی بنیادینی را در روانشناسی مدرن ارائه داده! مفهوم اسکیزوتاکسی، طبقهبندی اسکیزوفرنی، بسیاری از علامت شناسی ها! ولی اسم مقاله رو نگاه کن! Why I don not attend case confrences چرا من به جلسات معرفی بیمار نمیرم؟ 1973 اینو نوشته! شما دیدی جلسات معرفی بیمار میری یه کیسی رو برای شما معرفی میکنند که خودکشی کرده! کیسی رو معرفی میکنن که مثلاً به مادرش حمله کرده! کیسی رو معرفی میکنند معتاد شده! کیسی رو معرفی میکنن طلاق گرفته و اونجا تفسیرگر که هیچ زیر سؤال نمیبریمش! تخت هشت نمیکنیم! میاد داستان رو خیلی قشنگ برای شما نقد میکنه میگه کودکیش اینجوری بوده! همسرش این ویژگیها رو داشته!! این ویژگی با این ویژگی مقابل شده باعث اختلاف شده! فشار رفته بالا بعد فشار کار پیدا شده! و این باعث شده خودکشی کنه، این بعث شده طلاق بگیره! یعنی خیلی قشنگ گذشته را میتوان توصیف کرد به نوعی که شما اصلاً حس میکنی چقدر تفسیر قشنگ بود این مقاله رو بخون ولی paul meehl میگه من از این معرفی بیماران نمیرم چرا جلسات رو نمیری؟ برای اینکه اون معتقده خیلی از این چیزا داستانسراییه! توهین به کسی نشه! قطع نکنید! امیدوارم اینستا اینجا رو قطع نکنه! منظورش چیه؟ برگردیم به همون پیشبینی طلاق! دیده بود که سیستمهای هوشمند ادعا میکنند که تا 87 درصد ، 90 درصد،95 درصد میتونن توی یه نمونه بهشون بدی، هی پردازش میکنند طلاق رو، میگن! میگن اینا از هم طلاق میگیرند! ولی میگه خیلی خب حالا این نرمافزار بیاد بزنیم تو زندگی زوجهای جوان! میبینی عمق قدرت تشخیصش میشه 21 درصد از 95 درصد 21 درصد! و وقتی اومدن میزان پایه طلاق را نگاه کردن (16 درصد-17 درصد) گفتن خب عزیزمن! سکهام مینداختی تقریبا همین بود دیگه!! مثل اینایی که کنکور میرن میگن مثلاً امتیازشون شد چند؟ میگه 25درصد! خب میگه همینجوری تصادفی هم میزدی باید 25درصد رو میاوردی دیگه! یک چهارم سوالات! پس نتونسته پیشبینی کنه! این داستانش کجاست؟ مشابه همین رو دوستان من! میگم این از اون بحثهای ترسناک زندگیه! شما تو تفسیرهای اقتصادی، سیاسی، اجتماعی میبینید! چه شد جنگ شد؟ چه شد انقلاب شد؟ و خیلی قشنگ طرف برا شما داده ها رو میگه! این نارضایتی اینجوری شد! تورم اینجوری میشد! بیکاری اینجوری شد! و بعد این شد…ولی ما از کتابهایی مثل every think is obvious once you know the answere یا از اون کتاب Philip tetlock پیشبینی آینده! متوجه ایم که وقتی بههمین آدما که به این قشنگی زندگی یک انسان را توضیح میدهند، به این قشنگی وقایع اجتماعی را توضیح میدهد! میگن خب حالا بگو بینیم سال بعد بهنظر شما جنگ میشه یا نمیشه؟ سال بعد قیمت نفت میره بالا میاد پایین؟ سال بعد نمیدونم وضعیت اوکراین چی میشه؟ آیا یکسال دیگه جنگ اوکراین تموم شده یانه؟ میدونید فیلیپین Philip tetlock اصلا این کار رو میکنه! یک روانشناس بسیار مشهور و چیز عجیبی که درآورده اینه: اکثریت افراد قدرت پیشبینیشون بخار میشه! یعنی همونی که خیلی قشنگ در زندگی شما رو براتون تفسیر میکنه که چرا به اینجا رسیدی وقتی میگه خب حالا از این به بعدشو بیا بگو، !غلط در میاد میگه تو که گذشته ی من رو اینقدر خوب تفسیر کردی! پس اینقدر قشنگ به قول چیز خم و چم ذهن منو خوندی پس چرا من حرفا!! نمیتونی آینده رو پیشبینی کنی؟ این یکی از ابر چالشهای بشری است، دوستان من! اگر بپرسی واقعاً اگر من بخوام چهار پنج تا هرچیزی که تو زندگی چراغ راه خودم کردم یکیش اینه: گذشته رو خیلی راحت میشه تفسیر کرد و یک خطا به شما میده! یک توهم میده! که من فهمیدم قضیه و بعد که برمیگردی همون قوانین میخوای به آینده اعمال کنی! اتفاق نمیافتد! جالبه تو همین کتابم از yogi beraa باز نامبرده! yogi beraa یادتون هست که همون که حرفهای بامزه میزد! البته گفتن این حرف بامزهاش رو فقط yogi beraa نزده! Niels bohr فیزیکدان نابغه و مشهور و mark rwain هم گفته و داستانش اینه که گفته پیشبینی کردن خیلی سخته! بخصوص درمورد آینده! ببین توی این طنز یه نکته عمیق هست میگه: شما وقتی دادهها رو داری، گذشته مردم خوب میتونی توضیح بدی! ولی نمیتونی آینده.. یعنی گذشته رو خوب میتونی پیشبینی کنی، به این میگه خطا! خطای تیرانداز تگزاسی! Texas sharpshooter fallacy “تکساس شارپ شوتر فلسی” چیه دوستان من؟ میگه ببین شما فکر کن داری یه جا تیراندازی میکنی! اول تیراندازی کنی بعد بری سیبل رو بکشی! یعنی شما اگر تیرت به خطا رفته میتونی بیای اون سیبل رو یا هدف رو اونور بکشی که تیرت به به خطا نرفته، این کاری است که ذهن ما میکنه!ر یعنی اول هدف و نمیکشد توش تیر اندازی کنه ببینه درست میزنه یا نه، اول که زده بعد هدف رو دور اون تیرهایی که خورده میکشه اصطلاح قشنگی که gigerenzer بر این گذاشته، بهش میگه: Texas sharpshooter fallacy “به بیان دیگه میگه وقتی شما مثلاً میفهمی یک نفر خودکشی کرده میگردی مثل همون تیرانداز تگزاسی، هدف رو اونجا رسم میکن!ی خب مادر سختگیر بوده! بعله! توی مدرسه درسهاش پایین بوده بعله! نمیدونم پدرش همش مسافرت بوده، بله بله! اینا رو بهم وصل میکنی و تفسیری از زندگی او میسازیم و paul meehl برای همین نمره معرفی بیمار! میگه اون طرف اینکار رو داره میکنه ولی به همون طرفی که اینقدر قشنگ این عوامل رو کنار هم میچینه میگن خیلی خب بذارین ندید! جواب سؤال ها رو نبینه! بگو ببینم از این هزار نفر چند تاشون خودکشی خواهم کرد؟ از این هزار ازدواج چند تاشون طلاق خواهند گرفت؟ از این هزار کشور که نداریم! از این 20 کشور کدومشون انقلاب خواهد شد؟ کی رئیسجمهور خواهد شد؟ خراب میکنه دیگه نمیتونه! درصورتیکه الان ببین مثل همین راجعبه انتخابات ترامپ کلی کتاب هست که نمیدونم طبقهی متوسط اینجوری شده بود، درآمد اینجور شده اونجور شده بود! خیلی هم قشنگ، با آمار و گراف نشون میداد! ولی میگه خوب پس چرا قبلش نتونستی؟ Philip tetlock برای ما ثابت کرده نمیتونن بگن، شما ببین همین جنگ اوکراین رو نتونستند پیشبینی کنند! الان آینده اش رو هم نمیدونند چی میشه، وقایع رو نمیتونن ولی رو به عقب رو قشنگ میشه تفسیر کرد! چرا؟ به این میگن خطای تأیید، یعنی ما میگردیم و درواقع شواهدی رو در جهت واقعه پیدا میکنیم و اینقدر قشنگ اینا رو بهم میچسبانیم که بهنظر میاد علت رو یافتیم! ولی دو جا شما دچار اشتباه میشی، دو جا کارت میلنگه! اینا رو درس زندگی! برای من، درس زندگی بود، میگه: یک: برای اینکه این خطا نشی اگه راست میگی، بچرخ! رو به آینده نگاه کن! دفتر تو همین الان وردار اگر به زندگی خصوصی مردم کنجکاو و فضولی، اگر به اقتصاد و سیاست علاقهمندی، اگر به انتخابات علاقهمندی، اگر میخواهید بیزینس کنی بنویس! و بهصورت آری یا نه هم باشه به قول معروف (باینری) قیمت دلار عید بالای چهل هزار تومن است، پایین چهل هزار تومان است؟ آری خیر! در عید امسال زلنسکی پیروز شدهاست؟ آری خیر! نمیدونم در شهریور امسال قیمت ملک اینقدر است آری خیر! و بعد با کمال تعجب میبینی! خیلی از اینا رو نمیتونی یعنی اگر شیر و خطم کنارش بندازی، آره یا خیر ها رو بذاری اون خیلی بدتر از تو عمل نمیکنه، این سیستمهای پیچیدهای اینو داره ولی وقتی اتفاق افتاد اینقدر قشنگ میتونی بچسبونی ببین دلیلش اینه مردم احساس نارضایتی کردند، نارضایتی به …منجر شد و بعد از اون طرف نمیدونم قیمت نفت رفت بالا! و اینا اینا رو خب آره… پس میگه ذهن ما گذشتهنگر علیت رو میتونه خیلی قشنگ بهم بچسبونه، همین رو در روان انسان داریم! میگه تو این case presentation ها معرفی بیمار paul meehl میگه این کارو میکنن، پس اگه راست میگی یک: باید از تست پیشبینی رد شین، میگه بسیاری از این هوش مصنوعی ها این کارو نمیتونند بکنند، معادل بهترین مدلی که فیت میشه با دادهها رو برای شما پیدا میکنند، میگن best fit model حتی یه کار دیگه میکنن میگن برای اینکه تأیید کنیم که این best fit model درسته، دیتا رو دو تیکه میکنیم،! خب مثلاً یک میلیون داده داریم، پونصد هزار تا رو best fit model رو پیدا میکنیم بعد اون best fit model رو تو اون یکی محک میزنیم، میبینیم جواب داد! یعنی بهترین مدلی که کار میکنه به این میگن cross validationتأیید متقابل! میگه ولی این همون حرفِ yogi beraa هست دیگه! yogi beraa رو مسخره میکردیم، راجعبه گذشته داری اینو میگی، اگه راست میگی بچرخون! اون پیشبینی گرت، رو راجعبه آینده بگو! چون قوی سیاه اتفاق میافته، چون قوانین آینده ناشناخته است، چون این رو به گذشته رو براساس خطای تیرانداز تگزاسی رسم کردی، گشتی ببینی چه عواملی این رو توجیه میکنه! اونا رو وارد عمل کردی این اتفاق افتاده! که یه جاهاییشم دیدی همون داستان مارگارین و طلاق میشه! دیگه کره مارگارین خوردنش با طلاق همبستگی پیدا میکنه! بعد شما از راه فروش مارگارین بخواهید طلاق سال بعد رو پیش بینی کنی! نیکولاس نسیم طالب یکی از اونهایی که خیلی قشنگ اینو نقد میکنه، پس یکیش این شد دوستان من! اگر میخوای توی تله نیفتید قدرت پیشبینی کنندگی خودتون رو محک بزنید، پیش خودتون یه دفترچه داشته باشید و وقایعی رو که براتون مهمه آره یا خیر! بنویسید و هر از چندگاهی تیک بزنید! ببینید چن تاش درست درآمد و بعد خودتون رو نقد کنید! یه چیز عجیب براتون روشن میشه! حالا حالا حالا… ممکنه بگید نه من به حافظم دارم اتکا میکنم من مثلا اینو پیشبینی کردم معلوم بود این رئیسجمهور میشه! معلوم بود ترامپ میبره! … من اصلا اینا رو گفته بودم! این همان بحثی است که من با آقای میرفخرایی داشتم اون جهان پنهان ذهن! حافظهی ما گذشته رو بازسازی میکنه، توی اون پیروزیهای تجربهام گفتم، اون جاهایی که به نحو وقایع هست اونو یادت میمونه! اون قسمتای دیگه رو پاک میکنه، حافظه ما سیاله! حافظهی ما مثل کامپیوتر نیست! که همهچیز توش فیکسه! براساس وقایع گذشته رو بازسازی میکنه و شما گاهی اوقات دعواهای فامیلم که من گفتم اینجوری میشه! بابا من گفته بودم که دلار اینجوری میشه! ولی درصورتیکه میگه نه! یه جاهایی همی میگفت اینجوری نمیشه! تو بعضی روزا اینو میگفتی بعضی روزا اونو میگفتی الان اون یادت مونده! این بهش میگن best fit model و درواقع اون بایست یا سوگیری عقب! پس این یه اصل ولی گفتن دوتاس! اون یکیش چیه؟ که تو زندگی در سیستم ذهنمون باید وارد کنیم! پس یه کاری که گفتم خواهش میکنم هر جا دیدی گذشته رو چقدر قشنگ دارید تفسیر میکنید اصلاً راجعبه گذشتهی بیمار! گذشته ی تاریخ، گذشته ی اقتصاد، گذشته زندگی فردیت، داری داستانهایی رو خیلی قشنگ میچینی من به این دلیل اینجور شدم بعد از اینجور شدم بعد اینجور شدم حواست باشه توی اون خطا نیفتاده باشی یه راهش اینه که اگه راست میگی آیندهام رو بیا واردش کن! یعنی به قول یوگی برا آینده رو پیشبینی کن اگه راست میگی، گذشته رو که راحت میشه پیش بینی کرد! قسمت دومش چیه؟ قسمت دومش هم یه چیز خیلی پیچیده است! چهجوری براتون بگم این شکلی براتون بگم: یکی از ا اصطلاح مثال نیستا! توی سه چهار تا کتاب این رو دیدم، تو همون کتابایی که معرفی کردم خدمتتون ،میگه شرلوک هولمز و دکتر واتسون… میگه واتسون الان گوش بده !چی میشنوی؟ میگه هیچی نمیشنوم میگهخب همین نکته اس دیگه! میگه چرا ؟ میگه خب سگ چرا پارس نمیکنه؟ اگر سارق غریبه بود باید سگ پارس میکرد! پس اینی که سگ پارس نکرده خودش یه معنیداره به این میگن قدرت the power of counterfactual اینو خواهش میکنم گوش بدید، اینم از اون چیزایی که برای زندگی شخصی من خیلی رشد فکری خودم مهم بود دوست دارم به شمام منتقل کنم قدرت the power of counterfactual ، اول راجعبه این بیابیم که counterfactual رو چهجوری ترجمهاش کنیم؟ ترجمه تحتاللفظیش و دیکشنریش توی کتاب فرهنگ لغات میگه خلاف واقع! ولی اون نیست ! counterfactual در اصل اینه… پس عذر میخوام که مرتب دارم لغت انگلیسی این وسط بکار میبرم.. بعضیا راست میگن این حس رو دارند که وقتی دوزبانه میشه آدم یه ذره حالش بد میشه چرا هی از این زبان به اون زبون میپری ولی یه جا دیگه نمیتونی این کارو کنی! the power of counterfactual ، counterfactual اینه واقعهای که میتوانست اتفاق بیفتد و نیفتاد! میگه وقتی ما گذشته رو تفسیر میکنیم حواسمون به counterfactual نیست فقط اونهایی رو که اتفاق افتاده تفسیر میکنی! من مشابه این رو درمورد اثربخشی بعضی داروها گفتم بهتون، ببین گفتم شما ممکنه بگین ببین من این قرص رو خوردم سردردم خوب شد اساس خیلی از طب های جایگزین اینه مردمو به خط میکنن میگن بگو این جوشونده رو خوردم اصلاً دل دردم خوب شد، اینو خوردم تمام اضطرابم رفت! ولی میدونید در علم ایت کافی نیست باید سه حالت دیگر هم ببینی اونی که این رو نخورده و خوب شد!ه اونی که نخورده و خوب نشده! اونی که این را خورده و خوب نشده، این سه حالت دیگرم باید ببینی تا زمانیکه این سهتای دیگه رو ندیدی اگر هزاران نفر رو دیدی که این شربت رو خوردن و خوب شدن هیچ ارزشی نداره! برای اینکه اون قسمت… اونا بهش میگن قدرت counterfactual یعنی اونی ک اون تو نیست! حالا جالبه ما بهشدت گول میخوریم وقتی گذشتهی خودمون یا سیاست یا هرچیز دیگری نگاه میکنیم و یکی از انتقاداتی که من به تئوری توطئه دارم اینه: تئوری توطئه نه ازاینجهت که مثلاً اینا خیلی بدبینم یا همش نمیدونم سیاست تو همه چی میبینن نه! برا اینکه counterfactual رو نمیبینند به کسی بها بدید که counterfactual رو ببینه . Counterfactual مثل همون داستانشان شرلوک هلمزه! این سگه میتونست پارس کنه و پارس نکرده چرا پارس نکرده؟ حالا مثال براتون بزنم مثال سیاسی، مثال فردی! بسته به اینکه با کدومش علاقه دارید مثلا شما میای میگی ببین این مادر سختگیر داشته مادر سختگیر همش سرزنشش میکرده! اعتمادبهنفس کم شده! و رفته معتاد شده! گفتیم این اصلا کافی نیست هرچند خیلی قشنگه خیلی لوکسه! ولی میتونی بگی که خب ببین این مادر مثلاً این ویژگی هم داشته ولی اینجوری نشده! مادر درعینحال خیلی هم مثلاً مسامحه کار بوده ولی این نرفته! مثلاً دوستدختر پیدا بکنه! چرا اون اتفاق نیفتاد، درحالیکه ما تو آنالیزهامون اونو نمیاریم یا توی سیاست خیلی پررنگتره! ببینید مثلاً خیلی از طرفداران توطئه من میگم غلط یا دروغ راستشو اصلا کار ندارم ، میدونی واسم ترور کندی رو اون گزارش وارن گفت که نه کار نهادهای دولتی نبوده! درصورتیکه طرفداران تئوری توطئه میگن نه کار سی آی اِی بوده کار اف بی آی بوده! خودشون کشتنش! خب شواهد رو قشنگ وصف میکنند.. حالا شما بیا اونوری شو فکر کن، میتونستن ترامپ رو هم ترور کنند و نکردند! یعنی اینی که اون واقعه اتفاق نیفتاده، اینم تو آنالیز شما باهات بها داشته باشه یا اینی که میگن نزدیک انتخابات میشه جنگ راه میندازن برای اینکه انتخابات رو ببرن خب این اتفاق ترامپ نیفتاد ! خیلی از مفسرین این پیشبینی را میکردن که خب این یه جنگ راه میندازه و اینکه انتخابات محل دومش هم ببره! دوره دومش هم ببره و این انفاق نیفتاد! نمیخوام بگم ترامپ خوبه یا بد ! اصلا کاری ندارم فقط میخوام بگم که counterfactual یعنی اون چیزی که میتونست اتفاق بیفته و نیافتاد! اون رو هم باید تو محاسباتتون بیارید مثل این آدم معلوم بود از روز اول سرقت میکنه و به من نارو میزنه! خوب در اونجا هم میتونست بزنه و نزد! یا فلان جا هم شما گردنت زیر تیغش بود ولی کاری نکرد! اون رو هم با تو محاسباتت بیاری و چون counterfactual رو نمیاری، آینده رو نمیتونی پیشبینی کنی! یکی از صحنههای counterfactual که تو ذهنم مونده… حالا برای اینکه یه ذره از همهاش درس نباشه یه ذره تفریح هم باشه… یه فیلمی هست enemy of the gates ادامه دارد… یک ساعت تمام!