شرکتهای توسعهدهندهی چتباتهای هوش مصنوعی همواره سعی دارند عملکرد مدلهای خود را تا حد امکان شبیه انسان کنند. ظاهراً OpenAI کمی نگران «بیشازحد انسان بودن» مدلهای هوش مصنوعی و تأثیر آنها روی هنجارهای اجتماعی است.
OpenAI در گزارش جامع فعالیتهای خود، به صراحت اعلام کرد که ترجیح میدهد کاربران نسبت به GPT-4o احساسات عاطفی پیدا نکنند.
با توجه به پست وبلاگی OpenAI، این شرکت تلاش زیادی انجام داده است تا کاربران هنگام مکالمه با GPT-4o، احساس کنند با یک انسان حرف میزنند. این تلاشها شامل ویژگی صوتی جدید برای تقلید گفتار انسان بههمراه سرعت بالاتر پاسخگویی میشود و میتوانید با چتبات، گفتوگویی صوتی شبیه به مکالمه با یک انسان واقعی داشته باشید.
اکنون OpenAI متوجه شده است کاربران با ChatGPT-4o مانند انسان واقعی رفتار میکنند. این شرکت میگوید: «در مراحل اولیهی تست، ازجمله آزمایشهای داخلی و شبیهسازی حملات سایبری، متوجه شدیم کاربران از عباراتی استفاده میکنند که برقراری ارتباط با مدل را نشان میدهد. درحالیکه موارد ذکرشده بیضرر بهنظر میرسند، اما بررسی اثرات بلندمدت آنها نیاز به بررسی بیشتر دارد.»
OpenAI به دو دلیل موضوع انسانپنداری چتباتها را خبر بدی میداند. اول اینکه، وقتی هوش مصنوعی شبیه انسان بهنظر برسد، ما بیشتر مستعد باورکردن حرفهای آن بهعنوان واقعیت هستیم. این یعنی مردم درمقایسهبا زمانی که هوش مصنوعی شبیه ربات رفتار میکند، بسیار بیشتر در معرض توهمات و اطلاعات اشتباه آن قرار میگیرند.
مورد دوم اینکه OpenAI نگران است هنجارهای اجتماعی با GPT-4o تحریف شوند. شرکت مورد بحث احتمال میدهد این مدل، نیاز به تعاملات اجتماعی را کاهش دهد و درحالیکه امکان دارد به افراد تنها کمک کند، اما احتمالاً بر روابط سالم تأثیر خواهد داشت.
GPT-4o طوری طراحی شده است که اگر در حال صحبت باشد و کاربر نیز شروع به حرفزدن کند، صحبتهای چتبات قطع میشود تا به حرفهای کاربر گوش دهد و شاید این سبک حرفزدن در مکالمات دنیای واقعی نیز تأثیر داشته باشد.
درحالحاضر، OpenAI نحوهی برقراری ارتباط احساسی افراد با چتباتهای خود را زیر نظر خواهد گرفت و در صورت لزوم، سیستمهایش را اصلاح میکند. نگرانیهای این شرکت، دید بسیار جالبی درمورد عوارض جانبی استفاده از مدلهای هوش مصنوعی ارائه میدهد.