أعلنت شركة أمازون ويب سيرفيسز (AWS) عن ميزة "فحوصات التفكير الآلي" الجديدة (معاينة) ضمن Amazon Bedrock Guardrails. تساعد هذه الميزة في تقليل الهلوسات في نماذج اللغات الكبيرة (LLMs) من خلال التحقق رياضيًا من دقة الردود التي تولدها هذه النماذج. تعتمد هذه الميزة على مبادئ التفكير الآلي، وهو مجال في علوم الكمبيوتر يستخدم البراهين الرياضية والاستنتاج المنطقي للتحقق من سلوك الأنظمة والبرامج. على عكس التعلم الآلي الذي يعتمد على التنبؤات، يوفر التفكير الآلي ضمانات رياضية حول سلوك النظام. تستخدم AWS بالفعل التفكير الآلي في خدمات رئيسية مثل التخزين والشبكات والافتراضية والهوية والتشفير. على سبيل المثال، يتم استخدام التفكير الآلي للتحقق رسميًا من صحة تطبيقات التشفير، مما يحسن الأداء وسرعة التطوير. الآن، تطبق AWS نهجًا مشابهًا للذكاء الاصطناعي التوليدي. تعد فحوصات التفكير الآلي (معاينة) في Amazon Bedrock Guardrails أول ميزة أمان للذكاء الاصطناعي التوليدي تساعد في منع الأخطاء الواقعية الناتجة عن الهلوسات باستخدام منطق دقيق وقابل للتحقق يشرح سبب صحة ردود الذكاء الاصطناعي التوليدي. تعتبر فحوصات التفكير الآلي مفيدة بشكل خاص لحالات الاستخدام التي تكون فيها الدقة الواقعية وقابلية التفسير مهمة. على سبيل المثال، يمكنك استخدام فحوصات التفكير الآلي للتحقق من صحة الردود التي تم إنشاؤها بواسطة LLM حول سياسات الموارد البشرية أو معلومات منتجات الشركة أو سير العمل التشغيلي. عند استخدامها جنبًا إلى جنب مع تقنيات أخرى مثل هندسة المطالبات، وتوليد البيانات المعزز بالاسترجاع (RAG)، وفحوصات التأريض السياقي، تضيف فحوصات التفكير الآلي نهجًا أكثر صرامة وقابلية للتحقق للتأكد من أن المخرجات التي تم إنشاؤها بواسطة LLM دقيقة من الناحية الواقعية. من خلال ترميز معرفة المجال في سياسات منظمة، يمكنك التأكد من أن تطبيقات الذكاء الاصطناعي للمحادثة الخاصة بك تقدم معلومات موثوقة وجديرة بالثقة لمستخدميك.
منع الأخطاء الواقعية من هلوسات نماذج اللغات الكبيرة مع فحوصات التفكير الآلي السليمة رياضيًا (معاينة)
AWS