اشترك

الاستمرار بالحساب الحالي

شارك
شارك
Article image
مصدر الصورة: أوبن إيه آي



قام مختبر أوبن إيه آي بتوسيع نطاق المولّد اللغوي جي بي تي 3، بنموذجين جديدين يدمجان معالجة اللغات الطبيعية بتقنية التعرف على الصور.

2021-12-22 19:20:22

11 يناير 2021
أثبت مختبر “أوبن إيه آي”، من خلال نموذج جي بي تي 3، أنه يمكن تدريب نموذج تعلم عميق واحد على استخدام اللغة بعدة طرق متنوعة، وذلك ببساطة عن طريق تلقيمه بكميات هائلة من النصوص. ثم أثبت أنه من الممكن، من خلال تبديل النصوص بالبكسلات، استخدام نفس النهج لتدريب نظام الذكاء الاصطناعي على إكمال الصور نصف المكتملة. وفي حين يحاكي جي بي تي 3 الطريقة التي يستخدم بها البشر الكلمات، يتوقع “جي بي تي 3 المُصور” ما نراه. والآن جمع أوبن إيه آي هاتين الفكرتين معاً ليُنشئ نموذجين جديدين، هما دال.إي (DALL·E) وكليب (CLIP)، اللذَين يدمجان اللغة والصور بطريقة تمنح أنظمة الذكاء الاصطناعي فهماً أفضل، ليس فقط للكلمات وإنما لما تشير إليه هذه الكلمات أيضاً. ويقول إيليا سوتسكيفر، كبير العلماء في أوبن إيه آي: “إننا نعيش في عالم مرئي، وعلى المدى البعيد سيكون لدينا نماذج تفهم كلاً من النصوص والصور. وسيكون الذكاء الاصطناعي قادراً على فهم اللغة بشكل أفضل، لأنه يستطيع رؤية ما تعنيه الكلمات

مقالك الأول مجاناً، أدخل بريدك الإلكتروني واقرأ.

أو اشترك الآن واستفد من العرض الأقوى بمناسبة اليوم الوطني السعودي.
25% على الاشتراكات السنوية في مجرة.