7

باگ عجیب چت‌بات گوگل؛ جمینای با جملاتی بی‌معنا به کاربران پاسخ می‌دهد

[ad_1]

چت ربات‌های هوش مصنوعی ویژگی‌های شگفت‌انگیزی دارند، اما گاهی اوقات با مشکلات و باگ‌هایی نیز مواجه می‌شوند. اخیراً برخی از کاربران متوجه شده‌اند که گوگل جمینا در برخی از پاسخ‌های خود متن‌های تکراری، حروف عجیب و بی‌معنی ایجاد می‌کند.

بر اساس پست های کاربران در redditدر برخی موارد، جمینا با یک سری کلمات تکراری یا عبارات مزخرف یا با حروف عجیب پاسخ می دهد. این اشکال در واقع در جملات طولانی ظاهر می شود و در برخی موارد پاسخ ها هیچ ارتباطی با درخواست کاربر ندارند. مطمئناً، برخی از کلمات منطقی هستند، اما قالب بندی اشتباه این ربات چت باعث می شود پاسخ غیرقابل خواندن باشد.

باگ عجیب چت ربات هوش مصنوعی گوگل جمینا

چت ربات جمینا گوگل ابزاری مفید برای دریافت پاسخ های سریع یا تکمیل کارهای پیچیده است. اما مانند هر هوش مصنوعی دیگری، این چت بات مستعد توهم است. با این حال، ممکن است آخرین باگ عجیب چیزی بیش از یک باگ باشد.

علت این مشکل هنوز مشخص نیست، اما پست کاربران مختلف همچنین در reddit 9to5Google گزارش می دهد این نشان می دهد که این باگ نسبتا گسترده و رایج است و ممکن است منشا این مشکل از خود گوگل باشد.

اگرچه پاسخ های عجیب جمینا برای کاربران مختلف متفاوت است، اما به نظر می رسد که در بیشتر این پاسخ های عجیب و غریب در ابتدا کلمه Full و در پایان عبارت Full bor وجود دارد. همچنین این موضوع هم در نسخه تحت وب و هم در اپلیکیشن اندروید جمینا دیده می شود.

با این حال، در بیشتر موارد این واکنش ها به طور تصادفی رخ می دهد، پس از آن جمینا به عملکرد طبیعی باز می گردد.

باید گفت که در جریان رویداد I/O 2024، باگ گوگل در دمو رسمی توانایی های جدید جمینا خبرساز شد. در بخشی از دمو، کاربری از جمینا می پرسد که چرا اهرم عقب فیلم تا آخر حرکت نمی کند. جمینا هم جواب های عجیبی به او می دهد. پیش از این، گوگل در نسخه نمایشی رسمی چت بات Bard چنین اشتباهی را مرتکب شده بود.

[ad_2]

نوشته های مشابه

دکمه بازگشت به بالا