باگ عجیب چتبات گوگل؛ جمینای با جملاتی بیمعنا به کاربران پاسخ میدهد
[ad_1]
چت رباتهای هوش مصنوعی ویژگیهای شگفتانگیزی دارند، اما گاهی اوقات با مشکلات و باگهایی نیز مواجه میشوند. اخیراً برخی از کاربران متوجه شدهاند که گوگل جمینا در برخی از پاسخهای خود متنهای تکراری، حروف عجیب و بیمعنی ایجاد میکند.
بر اساس پست های کاربران در redditدر برخی موارد، جمینا با یک سری کلمات تکراری یا عبارات مزخرف یا با حروف عجیب پاسخ می دهد. این اشکال در واقع در جملات طولانی ظاهر می شود و در برخی موارد پاسخ ها هیچ ارتباطی با درخواست کاربر ندارند. مطمئناً، برخی از کلمات منطقی هستند، اما قالب بندی اشتباه این ربات چت باعث می شود پاسخ غیرقابل خواندن باشد.
باگ عجیب چت ربات هوش مصنوعی گوگل جمینا
چت ربات جمینا گوگل ابزاری مفید برای دریافت پاسخ های سریع یا تکمیل کارهای پیچیده است. اما مانند هر هوش مصنوعی دیگری، این چت بات مستعد توهم است. با این حال، ممکن است آخرین باگ عجیب چیزی بیش از یک باگ باشد.
علت این مشکل هنوز مشخص نیست، اما پست کاربران مختلف همچنین در reddit 9to5Google گزارش می دهد این نشان می دهد که این باگ نسبتا گسترده و رایج است و ممکن است منشا این مشکل از خود گوگل باشد.
اگرچه پاسخ های عجیب جمینا برای کاربران مختلف متفاوت است، اما به نظر می رسد که در بیشتر این پاسخ های عجیب و غریب در ابتدا کلمه Full و در پایان عبارت Full bor وجود دارد. همچنین این موضوع هم در نسخه تحت وب و هم در اپلیکیشن اندروید جمینا دیده می شود.
با این حال، در بیشتر موارد این واکنش ها به طور تصادفی رخ می دهد، پس از آن جمینا به عملکرد طبیعی باز می گردد.
باید گفت که در جریان رویداد I/O 2024، باگ گوگل در دمو رسمی توانایی های جدید جمینا خبرساز شد. در بخشی از دمو، کاربری از جمینا می پرسد که چرا اهرم عقب فیلم تا آخر حرکت نمی کند. جمینا هم جواب های عجیبی به او می دهد. پیش از این، گوگل در نسخه نمایشی رسمی چت بات Bard چنین اشتباهی را مرتکب شده بود.
[ad_2]