این هفته، جامعهی محققین هوش مصنوعی بهمناسبت مجمع بینالمللی دستاوردهای یادگیری (ICLR که آیکلیر «eye-clear» تلفظ میشود)، در نیواورلئان ( New Orleans) دور هم جمع شدند. این کنفرانس، یکی از گردهماییهای بزرگ سالانهی محققین این حوزه محسوب میشود. مشارکت ۳ هزار محقق و ارائه ۱۵۰۰ مقاله، این همایش را به یکی از مهمترین رویدادهای تبادل ایدهها در حوزه تدریس عمیق تبدیل میکند.
عمدهی مقالات پذیرفتهشده و سخنرانیهای همایش امسال، دوره حلوفصل چهار چالش رادیکال یادگیری عمیق (Deep learning)، یعنی نااُریب بودن (بوسیله صفر رساندن ضریب خطای عملکرد)، امنیت، تعمیمپذیری و علیت هستند. تو این مقاله، از بحث اطراف چگونگی اریبداری و مستعدبودن الگوریتمهای یادگیری مایشن (machine-learning) فعلی بخاطر حملات خرابکارانه و محدودشدن ناباورانهی آنها، به تواناییشان تو عمومیت الگوهایی که داخل دادههای آموزشی، بخاطر اپلیکیشنهای چندگانه جلوه گر میکنند، صرفنظر شده و به چالش نهایی یعنی «علیت»پرداخته میشود؛ چراکه درحال مجهز نیز، جامعهی پرورش ماشین مبتلا توسعهی این فناوری جهت برطرفکردن ضعفهای یادشده است.
«علیت» موضوعی است که بخاطر مدت طولانی، ذهن محققین را به خود مبتلا کرده است. یادگیری ماشین، توانایی زیادی تو پیداکردن همبستگی دادهها دارد؛ اما آیا میتواند روابط علت و معلولی در دادهها را همچنین کشف کند؟
چنین دستاوردی میتواند نقطهی عطف بزرگی باشد؛ چراکه اگر الگوریتمها بتوانند درمورد علل و اثرات پدیدههای مختلف در سیستمهای تیره بوسیله ما دستیار کنند، فهمیدن ما از دنیا را عمیقتر میکنند و وسایل قدرتمندی برای تاثیرگذاری تو آن، دراختیار ما فراغت میدهند.
لئون بوتو (Léon Bottou)، محقق تحسینشدهی واحد تحقیقات شعور ساختگی فیسبوک و دانشگاه نیویورک، تو مجمع روز دوشنبه، چارچوبی از چگونگی دستیابی به کمال مطلوب زبر ارائه کرد. در ادامه، خلاصهای از نظرات او را با بی قراری میخوانیم.نظریهی شروع: سیاق جدیدی برای انگاشتن پیرامون علیت
اولین نظریهی بنیادی بوتو به شرح والا است: تخیل کنید میخواهید یک سیستم یقین کامپیوتری طراحی کنید که بتواند اعداد دستنویس را شناسایی درنگ (این یک روند بدوی کلاسیک است که بهطور گشاد داخل مجموعه دادههای «MNIST» که درون تصویر پایین تر مشاهده میکنید، مصرف میشود). میتوانید با یک شبکهی تندخو (neural-network)، روی مجموعهی گستردهای از تصاویر اعداد دستنویس، که هر کدام با عدد نشاندادهشده در شمایل علامتگذاری شدهاند، شروع کنید ودر اختتام سیستم مناسبی داشته باشید که قادر باشد تصاویری را که قبلا مشاهده نکرده است، شناسایی درنگ.
کلکسیون دادهی MNIST
اما دوباره فرض کنید که مجموعه دادهی شما کمی دگرگونی کرده است و هر کدام از اعداد دستنویس دارای رنگهای قرمز یا سبز هستند. تصور کنید نمیدانید کدامیک از دو روش طعم جزیی یا شکل علامتگذاری، پیشبینیکنندهی بهتری بخاطر مغز نوشتهشده در تصویر است. طرز استانداردی که امروزه بهکار خمود میشود، این است که هر بخش از مجموعهی دادهها را به هر دو لباس فوق، برچسبگذاری یواش و به شبکهی عصبی میدهند تا تصمیم بگیرد.
مجموعه دادهی رنگی MNIST
تو این صورت، مناقشه جالب خواهد شد. مجموعهی دادهی «MNIST رنگی» گمراهکننده تلقی میشود؛ چراکه درون جهان واقعی، رنگ عدد کاملا بیمعنی است، اما در این مجموعه دادهی خاص، رنگ، پیشبینیکنندهی زیاد بهتری نسبتبه «شکل» است. بنابراین، شبکهی عصبی ما یاد میگیرد که از رنگ بهعنوان پیشبینیکنندهی اصلی استفاده کند. تا زمانیکه از این شبکهی عصبی بخاطر اطلاع اعداد دستنویس دیگری استعمال کنیم که از الگوی رنگ مشابهی متابعت میکنند، این روش جواب میدهد؛ ولی اگر رنگها را عوض کنیم، عملکرد سیستم کاملا نزول فاش میکند (بوتو این آزمایش را با دادههای اصلی و شبکهی عصبی واقعی ارتکاب داد، در حالت مقدمه میزان تشخص درست ۸۴/۳ درصد و درون حالت دوم عزب ۱۰ درصد بود).
بوسیله عبارت دیگر، این شبکهی عصبی به رویت بوتو یک «همبستگی ساختگی» را میسازد؛ که باعث میشود خارج از حوزهای که آموزش دیده است، کاملا بیفایده باشد. در حالت نظری، اگر شما بتوانید همهی همبستگیهای جعلی را درون یک مدل درس ماشین از بین ببرید، تنها با حالتهای «ثابتی» مواجه خواهید بود؛ حالتهایی که بیتوجه به زمینه همواره قرص هستند.
بوتو افزودن میکند که درعوض، ثبات به شما اجازه میدهد تا علیت را درک کنید. اگر ویژگیهای مدلل یک سیستم را بدانید و از مداخلهای که روی سیستم رخساره گرفته است، شناسایی داشته باشید؛ باید بتوانید نتیجه این مداخله را حدس بزنید. مثلا، اگر بدانید ابد لباس یک مغز دستنویس انتزاعی آن را تعیین میکند، میتوانید حاصل بگیرید که تغییرشکل آن (موجب)، معنای آن (معلول) را تحول میدهد. بهعنوان مثال دیگر، اگر بدانید کامل اشیاء از عادت گرانش تبعیت میکنند، میتوانید حاصل بگیرید که اگر توپی را رها کنید (علت)، به زمین خواهد افتاد (اثر).
بدیهی است که اینها، مثالهای سادهای از روابط انگیزه و معلولی بر پایهی ویژگیهای مدلل هستند که هماکنون نیز میدانیم؛ اما چگونه می توانیم این ایده را به سیستمهای پیچیدهای که هنوز حس نمیکنیم تعمیم دهیم؟ بهعنوان مثال، اگر می توانستیم ویژگیهای ثابت سیستمهای اقتصادی را نمودار کنیم، قادر میشدیم اثرات پیادهسازی محاکمه درآمد پایهی جهانی را حس کنیم؛ خواه با یافتن ویژگیهای مدلل جهیز آبوهوای جهان، اثرات اقدامات مهندسی آبوهوای (geoengineering) مختلف را تخمین کنیم. نظریهی دوم: خلاصی از شر همبستگی جعلی
چگونه میتوان از شر همبستگی جعلی رها شد؟ جواب این سؤال در نظریهی مهم دیگر بوتو نهانی است. داخل آموزش یادگیری ماشین کنونی متداول است که دادههای مختلف و مختلف را تا حد ممکن، در داخل یک مجموعهی آموزشی صبر میدهند. اما بهنظر بوتو، این اسلوب میتواند زیانبار باشد و دادههایی که از زمینههای مختلف، چه از دیدن زمانی و چه مکانی یا درون شرایط آزمایشی مختلف جمع میشوند، بهجای ترکیب شدن باید بهعنوان مجموعههای مستقلی درنظر گرفته شوند؛ چراکه در صورت ترکیب شدن، همانطور که اکنون معمول است، داده ها تلویحی مختلفی از بین میروند و ظن نمودار شدن همبستگیهای جعلی اضافه پیدا میکند.مقالههای مرتبط:تحصیل سامان شکاف بین دانش و درک را عمیق میکندچگونه سیستمهای یادگیری ماشین ما را غافلگیر میکنند
آموزش شبکهی تندخو با چندین مجموعه داده با زمینهی منحصربهفرد، بسیار متفاوت میشود. دیگر شبکه نمیتواند همبستگیهایی را که فقط در یک مجموعهی داده خلوص میکنند پیدا کند؛ درعوض باید همبستگیهایی را بیابد که در بین همهی مجموعه دادهها ثابت هستند. اگر آن مجموعه دادهها بهصورت هوشمندانه، از طیف گستردهای از زمینهها انتخاب شده باشند، همبستگی نهایی باید با خواص ثابت نسب پایه، همخوانی نزدیکی داشته باشد.
اذن دهید بار دیگر به مثال سادهی MNIST رنگی برگردیم. بوتو بهمنظور تشریح نظریهی خود برای پیدا کردن ویژگیهای ثابت، آزمایش پا بر جا خود را مکرر ایفا کرد. اینبار، او دو مجموعه دادهی MNIST رنگی با دو الگوی رنگ متفاوت را کاربرد کرد، پس ازآن به شبکهی عصبی خود آموزش رحم تا یک همبستگی که در هر دو گروه صادق است را هویدا نرم. وقتی بوتو این استاندارد بهبودیافته را بخاطر اعداد جدید با الگوهای رنگی مساوی و متفاوت آزمایش کرد، میزان تشخیص درست بخاطر هر دو حالت ۷۰ درصد شد. نتایج مدال داد که شبکهی تندخو یاد گرفته است رنگ را بی سابقه بگیرد و تنها روی لباس علامتگذاری تمرکز کند.
بوتو میگوید کارش روی این نظریهها کامل نشده است و مدتی کشش خواهد کشید تا جامعهی محققین این تکنیکها را روی مسائل پیچیدهتر از اعداد رنگی نیز آزمایش نرم. اما چارچوب طاسی این آزمایش به ظرفیت یادگیری عمیق موجب کمک بوسیله حساسیت چرایی اتفاق افتادن حوادث و اضافه کنترل ما روی سرنوشتمان رمز دارد.بیشتر بخوانید:گوگل دیتاست آموزش درک قدر یا بهای چیزی تقلبی با ۵ میلیون عکس منظره ارائه کردمایکروسافت از اسباب پرورش ماشین مبتنی بر کشیدن و رها کردن رونمایی کردهوش مصنوعی IBM با اسکن چشم، گلوکوم را تشخیص میدهداهمیت مدل سازی تجربه کاربری در توسعه هوش مصنوعیتاریخچه ناگفته هوش مصنوعی؛ انسانهایی که ماشینهای هوشمند را ساختند
عمدهی مقالات پذیرفتهشده و سخنرانیهای همایش امسال، دوره حلوفصل چهار چالش رادیکال یادگیری عمیق (Deep learning)، یعنی نااُریب بودن (بوسیله صفر رساندن ضریب خطای عملکرد)، امنیت، تعمیمپذیری و علیت هستند. تو این مقاله، از بحث اطراف چگونگی اریبداری و مستعدبودن الگوریتمهای یادگیری مایشن (machine-learning) فعلی بخاطر حملات خرابکارانه و محدودشدن ناباورانهی آنها، به تواناییشان تو عمومیت الگوهایی که داخل دادههای آموزشی، بخاطر اپلیکیشنهای چندگانه جلوه گر میکنند، صرفنظر شده و به چالش نهایی یعنی «علیت»پرداخته میشود؛ چراکه درحال مجهز نیز، جامعهی پرورش ماشین مبتلا توسعهی این فناوری جهت برطرفکردن ضعفهای یادشده است.
«علیت» موضوعی است که بخاطر مدت طولانی، ذهن محققین را به خود مبتلا کرده است. یادگیری ماشین، توانایی زیادی تو پیداکردن همبستگی دادهها دارد؛ اما آیا میتواند روابط علت و معلولی در دادهها را همچنین کشف کند؟
چنین دستاوردی میتواند نقطهی عطف بزرگی باشد؛ چراکه اگر الگوریتمها بتوانند درمورد علل و اثرات پدیدههای مختلف در سیستمهای تیره بوسیله ما دستیار کنند، فهمیدن ما از دنیا را عمیقتر میکنند و وسایل قدرتمندی برای تاثیرگذاری تو آن، دراختیار ما فراغت میدهند.
لئون بوتو (Léon Bottou)، محقق تحسینشدهی واحد تحقیقات شعور ساختگی فیسبوک و دانشگاه نیویورک، تو مجمع روز دوشنبه، چارچوبی از چگونگی دستیابی به کمال مطلوب زبر ارائه کرد. در ادامه، خلاصهای از نظرات او را با بی قراری میخوانیم.نظریهی شروع: سیاق جدیدی برای انگاشتن پیرامون علیت
اولین نظریهی بنیادی بوتو به شرح والا است: تخیل کنید میخواهید یک سیستم یقین کامپیوتری طراحی کنید که بتواند اعداد دستنویس را شناسایی درنگ (این یک روند بدوی کلاسیک است که بهطور گشاد داخل مجموعه دادههای «MNIST» که درون تصویر پایین تر مشاهده میکنید، مصرف میشود). میتوانید با یک شبکهی تندخو (neural-network)، روی مجموعهی گستردهای از تصاویر اعداد دستنویس، که هر کدام با عدد نشاندادهشده در شمایل علامتگذاری شدهاند، شروع کنید ودر اختتام سیستم مناسبی داشته باشید که قادر باشد تصاویری را که قبلا مشاهده نکرده است، شناسایی درنگ.
کلکسیون دادهی MNIST
اما دوباره فرض کنید که مجموعه دادهی شما کمی دگرگونی کرده است و هر کدام از اعداد دستنویس دارای رنگهای قرمز یا سبز هستند. تصور کنید نمیدانید کدامیک از دو روش طعم جزیی یا شکل علامتگذاری، پیشبینیکنندهی بهتری بخاطر مغز نوشتهشده در تصویر است. طرز استانداردی که امروزه بهکار خمود میشود، این است که هر بخش از مجموعهی دادهها را به هر دو لباس فوق، برچسبگذاری یواش و به شبکهی عصبی میدهند تا تصمیم بگیرد.
مجموعه دادهی رنگی MNIST
تو این صورت، مناقشه جالب خواهد شد. مجموعهی دادهی «MNIST رنگی» گمراهکننده تلقی میشود؛ چراکه درون جهان واقعی، رنگ عدد کاملا بیمعنی است، اما در این مجموعه دادهی خاص، رنگ، پیشبینیکنندهی زیاد بهتری نسبتبه «شکل» است. بنابراین، شبکهی عصبی ما یاد میگیرد که از رنگ بهعنوان پیشبینیکنندهی اصلی استفاده کند. تا زمانیکه از این شبکهی عصبی بخاطر اطلاع اعداد دستنویس دیگری استعمال کنیم که از الگوی رنگ مشابهی متابعت میکنند، این روش جواب میدهد؛ ولی اگر رنگها را عوض کنیم، عملکرد سیستم کاملا نزول فاش میکند (بوتو این آزمایش را با دادههای اصلی و شبکهی عصبی واقعی ارتکاب داد، در حالت مقدمه میزان تشخص درست ۸۴/۳ درصد و درون حالت دوم عزب ۱۰ درصد بود).
بوسیله عبارت دیگر، این شبکهی عصبی به رویت بوتو یک «همبستگی ساختگی» را میسازد؛ که باعث میشود خارج از حوزهای که آموزش دیده است، کاملا بیفایده باشد. در حالت نظری، اگر شما بتوانید همهی همبستگیهای جعلی را درون یک مدل درس ماشین از بین ببرید، تنها با حالتهای «ثابتی» مواجه خواهید بود؛ حالتهایی که بیتوجه به زمینه همواره قرص هستند.
بوتو افزودن میکند که درعوض، ثبات به شما اجازه میدهد تا علیت را درک کنید. اگر ویژگیهای مدلل یک سیستم را بدانید و از مداخلهای که روی سیستم رخساره گرفته است، شناسایی داشته باشید؛ باید بتوانید نتیجه این مداخله را حدس بزنید. مثلا، اگر بدانید ابد لباس یک مغز دستنویس انتزاعی آن را تعیین میکند، میتوانید حاصل بگیرید که تغییرشکل آن (موجب)، معنای آن (معلول) را تحول میدهد. بهعنوان مثال دیگر، اگر بدانید کامل اشیاء از عادت گرانش تبعیت میکنند، میتوانید حاصل بگیرید که اگر توپی را رها کنید (علت)، به زمین خواهد افتاد (اثر).
بدیهی است که اینها، مثالهای سادهای از روابط انگیزه و معلولی بر پایهی ویژگیهای مدلل هستند که هماکنون نیز میدانیم؛ اما چگونه می توانیم این ایده را به سیستمهای پیچیدهای که هنوز حس نمیکنیم تعمیم دهیم؟ بهعنوان مثال، اگر می توانستیم ویژگیهای ثابت سیستمهای اقتصادی را نمودار کنیم، قادر میشدیم اثرات پیادهسازی محاکمه درآمد پایهی جهانی را حس کنیم؛ خواه با یافتن ویژگیهای مدلل جهیز آبوهوای جهان، اثرات اقدامات مهندسی آبوهوای (geoengineering) مختلف را تخمین کنیم. نظریهی دوم: خلاصی از شر همبستگی جعلی
چگونه میتوان از شر همبستگی جعلی رها شد؟ جواب این سؤال در نظریهی مهم دیگر بوتو نهانی است. داخل آموزش یادگیری ماشین کنونی متداول است که دادههای مختلف و مختلف را تا حد ممکن، در داخل یک مجموعهی آموزشی صبر میدهند. اما بهنظر بوتو، این اسلوب میتواند زیانبار باشد و دادههایی که از زمینههای مختلف، چه از دیدن زمانی و چه مکانی یا درون شرایط آزمایشی مختلف جمع میشوند، بهجای ترکیب شدن باید بهعنوان مجموعههای مستقلی درنظر گرفته شوند؛ چراکه در صورت ترکیب شدن، همانطور که اکنون معمول است، داده ها تلویحی مختلفی از بین میروند و ظن نمودار شدن همبستگیهای جعلی اضافه پیدا میکند.مقالههای مرتبط:تحصیل سامان شکاف بین دانش و درک را عمیق میکندچگونه سیستمهای یادگیری ماشین ما را غافلگیر میکنند
آموزش شبکهی تندخو با چندین مجموعه داده با زمینهی منحصربهفرد، بسیار متفاوت میشود. دیگر شبکه نمیتواند همبستگیهایی را که فقط در یک مجموعهی داده خلوص میکنند پیدا کند؛ درعوض باید همبستگیهایی را بیابد که در بین همهی مجموعه دادهها ثابت هستند. اگر آن مجموعه دادهها بهصورت هوشمندانه، از طیف گستردهای از زمینهها انتخاب شده باشند، همبستگی نهایی باید با خواص ثابت نسب پایه، همخوانی نزدیکی داشته باشد.
اذن دهید بار دیگر به مثال سادهی MNIST رنگی برگردیم. بوتو بهمنظور تشریح نظریهی خود برای پیدا کردن ویژگیهای ثابت، آزمایش پا بر جا خود را مکرر ایفا کرد. اینبار، او دو مجموعه دادهی MNIST رنگی با دو الگوی رنگ متفاوت را کاربرد کرد، پس ازآن به شبکهی عصبی خود آموزش رحم تا یک همبستگی که در هر دو گروه صادق است را هویدا نرم. وقتی بوتو این استاندارد بهبودیافته را بخاطر اعداد جدید با الگوهای رنگی مساوی و متفاوت آزمایش کرد، میزان تشخیص درست بخاطر هر دو حالت ۷۰ درصد شد. نتایج مدال داد که شبکهی تندخو یاد گرفته است رنگ را بی سابقه بگیرد و تنها روی لباس علامتگذاری تمرکز کند.
بوتو میگوید کارش روی این نظریهها کامل نشده است و مدتی کشش خواهد کشید تا جامعهی محققین این تکنیکها را روی مسائل پیچیدهتر از اعداد رنگی نیز آزمایش نرم. اما چارچوب طاسی این آزمایش به ظرفیت یادگیری عمیق موجب کمک بوسیله حساسیت چرایی اتفاق افتادن حوادث و اضافه کنترل ما روی سرنوشتمان رمز دارد.بیشتر بخوانید:گوگل دیتاست آموزش درک قدر یا بهای چیزی تقلبی با ۵ میلیون عکس منظره ارائه کردمایکروسافت از اسباب پرورش ماشین مبتنی بر کشیدن و رها کردن رونمایی کردهوش مصنوعی IBM با اسکن چشم، گلوکوم را تشخیص میدهداهمیت مدل سازی تجربه کاربری در توسعه هوش مصنوعیتاریخچه ناگفته هوش مصنوعی؛ انسانهایی که ماشینهای هوشمند را ساختند