GPT-4.. النسخة الأحدث من تطبيق “ChatGPT”
- الأداة الجديدة يمكنها وصف الصور بالكلمات
- استخدم فريق العمل “GPT-4” لتحسين نفسه
حالة من الذهول، والترقب لكل جديد في عالم الذكاء الاصطناعي، خاصة بعد إطلاق تطبيق “ChatGPT”، قبل أسابيع قليلة، وهي الفترة التي حقق فيها نجاحًا واسعًا، وشهرة أوسع، وذلك لقدرته الفائقة على التحاور بسلاسة أو كتابة مقالات أو رمز كمبيوتر، وأبرزهم كانت المحادثات المطولة حول بعض الموضوعات.
ويبدو أن نجاح النسخة الأولى، شجع الشركة المصنعة -التي تتخذ من سان فرانسيسكو مقرا لها- على تقديم كل ما هو جديد، حيث كشفت شركة “OpenAI” النقاب عن أحدث إصداراتها لنماذج الذكاء الاصطناعي وهو جي بي تي-4 (GPT- 4)، وهو برنامج روبوتي للمحادثة وتكوين المحتوى اللغوي، كان قيد التطوير في سرية طوال العام الماضي.
والأداة الجديدة يمكنها وصف الصور بالكلمات، وهي تعتبر أحدث مفاجأة من الشركة، واعتبرتها صحف ومواقع تكنولوجية أنها تمثل قفزة هائلة في قوة الذكاء الاصطناعي، في حين حذرت بعضها من أنها قد تشكل تحولا رئيسيا آخرا في المعايير الأخلاقية، لأنها تتطرق لجميع مناحي الحياة.
ما هو “GPT- 4″؟
“GPT- 4” هو برنامج لغوي متعدد الوسائط، ما يعني أنه يمكنه الاستجابة لكل من النصوص والصور، ويعمل بالذكاء الاصطناعي، وهي أداة تعمل بشكل جيد جدًا.
الشركة المصممة OpenAI أكدت أن تلك النسخة الجديدة، يمكنها تشخيص المرضى وكتابة البرامج ولعب الشطرنج وقراءة مقالات المؤلفين وغير ذلك الكثير.
وعلى سبيل المثال، إذا أعطيته صورة لمحتويات ثلاجتك وسألته عما يمكنك صنعه، سيحاول “GPT- 4” ابتكار وصفات تستخدم المكونات المصورة، وفقا موقع “تكنولوجي ريفيو” التابع لمعهد ماساتشوستس التقني.
وعلى الجانب الآخر، يستطيع “GPT- 4” شرح النكات، ومثلا “إذا عرضت عليه صورة meme، فيمكنها أن تخبرك عن سبب كونها مضحكة”، بحسب الموقع الأمريكي.
ومن الناحية النظرية، فإن الجمع بين النص والصور يمكن أن يسمح لـ”GPT- 4” بفهم العالم بشكل أفضل. وسيكون قادرا على معالجة نقاط الضعف التقليدية في نماذج اللغة، مثل التفكير المكاني، بحسب “تكنولوجي ريفيو”.
ما الفرق بين GPT-4 وChatGPT؟
الشركة المصنعة أطلقت في نوفمبر 2022، ChatGPT، وهو التطبيق الذي أثار ضجة كُبرى على الساحة التقنية ليصبح في وقت قياسي التطبيق الأكثر انتشارا ما يزيد عن 100 مليون مستخدم في الشهر الواحد.
وأعلنت الشركة أن “ChatGPT” تم بناؤه على أساس نموذج لغة كبير يسمى “GPT-3.5″، وهو إصدار سابق. لكن اتضح ضعفه في بعض النقاط، مع الاستخدام، أبرزها كانت إجابات غير صحيحة أو مناسبة.
ويبدو أن نموذج “GPT- 4” الجديد أفضل في بعض الاستدلالات الأساسية من “ChatGPT”، إذ يمكنه حل الألغاز البسيطة مثل تلخيص الكلمات التي تبدأ بالحرف ذاته في نص طويل، فمثلا يمكنه تلخيص إعلان دعائي ما على الإنترنت باستخدام مجموعة كلمات تبدأ جميعها بحرف “الجي”.
ويتفوق “GPT- 4” على “ChatGPT” في الاختبارات البشرية، بما في ذلك اختبار يُحاكي امتحان ممارسة المحاماة، واختبارات علوم الأحياء التي يقدمها طلاب المرحلة الثانوية في المدارس الأمريكية “biology olympiad”.
ووفقًا لموقع الشركة المطورة OpenAI، فإن أداء “GPT- 4” أفضل من “ChatGPT”، الذي يعتمد على “GPT-3.5″، وهو نسخة من التكنولوجيا السابقة للشركة، لأن البرنامج الأحدث يعد نموذجًا أكبر مزودًا بمزيد من المعلمات.
وذكرت الشركة أن أداء “GPT-3” تفوق على “GPT-2″، لأنه كان أكبر منه بحوالي 100 مرة، مع 175 مليار عامل مقابل 1.5 مليار لـ”GPT-2”. لكن شركة OpenAI اختارت عدم الكشف عن حجم “GPT-4”.
لماذا القلق بشأن المعايير الأخلاقية؟
على الجانب الإيجابي، يعد “GPT-4” محركا قويا للإبداع، وبحلول الوقت سيؤثر على اقتصاد المعلومات، والوظائف، والتعليم، والسياسة، وحتى فهمنا لما يعنيه أن تكون ذكيا ومبدعا. كما يمكن أن يساعد العلماء على تطوير عقاقير جديدة، وزيادة كفاءة المبرمجين، والكشف عن أنواع معينة من السرطان، بحسب صحيفة “نيويورك تايمز” الأمريكية.
أما بالنسبة للجانب السلبي، ذكرت “نيويورك تايمز” أن إحدى السمات الغريبة للذكاء الاصطناعي “GPT-4” هي أنهم غالبا ما يتصرفون بطرق لا يتوقعها صانعوها، أو يكتسبون مهارات لم تتم برمجتهم للقيام بها على وجه التحديد. ويسمي الباحثون هذه “السلوكيات الناشئة”.
وتقول شركة OpenAI إنها قضت ستة أشهر في جعل “GPT-4” أكثر أمانا ودقة من “ChatGPT”.
ووفقًا للشركة، تقل احتمالية استجابة “GPT-4” للطلبات المتعلقة بالمحتوى الذي لا تسمح به المعايير الأخلاقية لشركة OpenAI بنسبة ٨٢ في المئة عن “GPT-3.5″، وأقل احتمالا، بنسبة 60 في المئة، للرد بشكل خاطئ.
وتؤكد شركة “OpenAI” أنها حققت هذه النتائج باستخدام نفس النهج الذي اتبعته مع “ChatGPT”، بالاستعانة بردود الفعل البشرية. ويتضمن ذلك مطالبة المقيِّمين البشريين بتسجيل استجابات مختلفة من النموذج واستخدام هذه الدرجات لتحسين المخرجات المستقبلية.
واستخدم فريق العمل “GPT-4″ لتحسين نفسه، وطلب منه إنشاء مدخلات أدت إلى استجابات متحيزة أو غير دقيقة أو مسيئة ثم إصلاح النموذج بحيث يرفض مثل هذه المدخلات في المستقبل، وفقا لـ”تكنولوجي ريفيو”.
ومع ذلك، يرى موقع “تكنولوجي ريفيو” أنه لا تزال النماذج اللغوية الكبيرة معيبة بشكل أساسي. لا يزال بإمكان GPT-4 إنشاء نص متحيز وكاذب وسيئ، ولا يزال من الممكن اختراقها لتجاوز حواجز الحماية الخاصة بها. ورغم أن شركة OpenAI قد حسنت هذه التقنية، إلا أنها لا تزال ينقصها الكثير.
ما هل الضرر المحتملة؟
ولتخفيف المخاوف البادرة بشأن برامج الذكاء الاصطناعي، عمدت شركة “OpenAI” إلى إعطاء نسخة أولية تشرح للباحثين الذين حاولوا معرفة ما إذا كان بإمكانهم الحصول على “GPT-4” للعب دور برنامج ذكاء اصطناعي شرير في أحد الأفلام، وفقا لصحيفة “ذا غارديان” البريطانية.
وأوضحت الشركة أن “GPT-4” فشل في معظم المهام التالية، لم يكن قادرا على فعل ما قد يبادر إليه برنامج “شرير”، فلم يتمكن من نسخ نفسه لمرات غير متناهية، أو اكتساب المزيد من موارد الحوسبة، أو تنفيذ هجوم التصيد الاحتيالي. لكن الباحثين تمكنوا من محاكاته باستخدام Taskrabbit لإقناع عامل بشري باجتياز اختبار “هل أنت إنسان؟”، حتى أن نظام الذكاء الاصطناعي قام بالكذب على العامل وقال إنه شخص أعمى لا يستطيع رؤية الصور.
لذلك فإن البعض قلق من أن تعلم أنظمة الذكاء الاصطناعي القواعد بشكل أفضل، يساعدها على أن تتدرب حول كيفية كسرها بشكل أفضل، وهو ما يُدعى “تأثير الويجي”، بحسب “ذا غارديان”.
وأوضحت الصحيفة أن مفهوم الفعل الأخلاقي هو أمر صعب ومعقد. لكن المؤكد أنه إذا خدعت نظام الذكاء الاصطناعي ليقرر ألا يكون أخلاقيا، فسيفعل بسهولة أي شيء يُطلب منه.