مایکروسافت چتبات دیوانهی بینگ را از بین بُرد اما مدیر اجرایی این شرکت میگوید امکان بازگشت سیدنی وجود دارد.
مایکروسافت اوایل سال جاری چتبات هوش مصنوعی خود را معرفی کرد. این شرکت هوش مصنوعی بینگ را براساس موتور جستجویش نامگذاری کرد اما در معماری آن، چتباتی با شخصیت کاملاً متفاوت حضور داشت. غول فناوری اهل ردموند نسخهی اولیهی هوش مصنوعی خود را سیدنی نامید.
در اولین روزهای انتشار بینگ، سیدنی هنگام مکالمه با کاربران گاهی پاسخهای عجیبوغریب و خارج از چارچوب ارائه میکرد و حتی از برنامههای خود برای تسلط بر جهان گفت. این چتبات حتی خبرنگار نیویورکتایمز را تشویق به ترک همسرش کرد و در بدترین حالت خود شخصیت یهودیستیز بهخود گرفت. غول فناوری اهل ردموند از جهتگیری چتبات خود چندان رضایت نداشت و بههمین دلیل آن را متوقف ساخت و محدودیتهایی در پاسخهای بینگ اعمال کرد و درنتیجه سیدنی برای همیشه به زبالهدان تاریخ پیوست.
براساس اعلام گیزمودو، بهنظر میرسد سیدنی همچان حضور دارد و در سایهی الگوریتمها و دادههای آموزشی پنهان شده و منتظر فرصتی دیگر برای دیده شدن است. کوین اسکات، مدیر ارشد فناوری مایکروسافت گفت امکان دارد روزی شاهد بازگشت سیدنی باشیم.
اسکات میگوید: «یکی از اقدامات جالبی که پساز متوقف شدن سیدنی رخ داد، ساخت کانال فرعی ردیت بهنام Save Sydney بود. مردم واقعاً از ما عصبانی شدند و اعلام کردند چتبات مذکور سرگرمکننده بود و آن را دوست داشتند.»
چتباتهای هوش مصنوعی، محصولات جالبی هستند زیرا واقعاً نمیتوان آنها را ابزار مشخصی درنظر گرفت. الگوریتمهایی که این سرویسها را اجرا میکنند براساس انبوهی از دادهها آموزش دیدهاند و مهندسان مجموعهای از دستورالعملها را به آنها ارائه میدهند و پارامترهای خاصی را برای ارائهی نسخهای که میخواهند شما ببینید، تنظیم میکنند.
اسکات اشاره میکند Meta Prompt درواقع دستورالعملی پایه است که به هوش مصنوعی میگوید چگونه باید رفتار کند. درحال حاضر، شرکتهایی مثل مایکروسافت باید محافظهکار باشند و چتباتها را سالم و ایمن نگه دارند، درحالیکه ما محدودیتها را متوجه میشویم.
برخی افراد که از هرج و مرجهای کوچک در محاسبات لذت میبرند شاید از بازگشت سیدنی خوشحال باشند. سیدنی قبلاز اعمال محدودیتها، پدیدهای واقعاً عجیب بود؛ این چتبات از تیکتاک تقلید کرد، اصرار داشت مسافر زمان است و حتی به زنده بودنش اشاره کرد.
قطعاً انتظار داریم سیستمهای هوش مصنوعی از برخی مرزهای مشخص عبور نکنند. اسکات میگوید: «برخی چیزها وجود دارد که عدهای از مردم از وجودشان ناراحت هستند و عدهای دیگر نه.»
ظاهراً چتبات غیرفعال سیدنی حتی میان کارکنان مایکروسافت نیز طرفدارانی دارد. درحال حاضر جداکردن تبلیغات از واقعیتها در گفتوگوهای مرتبط با هوش مصنوعی بسیار سخت است. همانطورکه روزنامهنگاری بهنام کیسی نیوتن اخیراً مشاهده کرد، برخی محققان برجسته در زمینهی هوش مصنوعی به شما خواهند گفت این فناوری باعث ایجاد آخرالزمان خواهد شد و برخی دیگر میگویند همهچیز بهخوبی پیش خواهد رفت. دراین مقطع نمیتوان گفت کدام دیدگاه واقعبینانهتر است. ازطرفی افرادی که این تکنولوژی را توسعه میدهند هیج ایدهای درمورد محدودیتهای آن یا اینکه تا کجا پیش خواهد رفت، ندارند.
البته واضح بهنظر میرسد هوش مصنوعی محاورهای مثل ChatGPT، بینگ و گوگل بارد نشاندهندهی تحول در نحوهی تعامل ما با رایانهها است. برای مدت طولانی، شما فقط میتوانستید از رایانهها با روشهای محدود و خاص استفاده کنید و هرگونه انحراف از مسیری که مهندسان طراحی کردهاند، به ناامیدی ختم میشد. اکنون وضعیت فرق دارد و میتوانید با سیستمهای رایانهای به روشهای مشابه روش ارتباط با انسانها تعامل برقرار کنید. البته نسل کنونی هوش مصنوعی در بسیاری از مواقع، پاسخهای غیرمرتبط ارائه میدهد یا درخواست کاربر را بهطور دقیق درک نمیکند.
بههر حال با پیشرفت فناوری تغییراتی در سیستمهای هوش مصنوعی اعمال خواهد شد. در واقع امکان دارد روزی فرا برسد که برای کار با کامپیوتر به هماناندازه که اکنون از ماوس و کیبود استفاده میکنید، از دستورات صوتی بهره ببرید. اگر این اتفاق رخ دهد یعنی رفتار برنامهها و دستگاهها بیشتر شبیه انسانها خواهد شد و این یعنی آنها شخصیت خواهند داشت یا حداقل وانمود میکنند که شخصیت دارند.
برای مثال برنامهی هواشناسی Carrot، به نسخهای از هوش مصنوعی مجهز شده است. هربار که این اپلیکیشن را باز کنید با شما صحبت میکند بهطوریکه فکر میکنید شخصیت خاص خود را دارد. البته این ایده واقعیت ندارد و درواقع هوش مصنوعی برنامه براساس مجموعهای از کدهای برنامهنویسی شده عمل میکند.
منبع : زومیت