تملك خوارزمية الذكاء الاصطناعي المتقدمة الجديدة لتوليد النصوص "جي بي تي-3" (GPT-3) القدرة على كتابة التغريدات والقصائد الشعرية، وتلخيص رسائل البريد الإلكتروني، والترجمة من وإلى لغات عدة بل وحتى كتابة برامج الحاسوب الخاصة بها.
وفي تقرير نشرته صحيفة "نيويورك تايمز" (New York Times) الأميركية، قال الكاتب كيد ميتز إن شركة "أوبن إيه آي" (OpenAI) الناشئة لأبحاث الذكاء الاصطناعي في سان فرانسيسكو كشفت عن تطويرها خوارزمية "جي بي تي-3" الجديدة القادرة على إنتاج النصوص.
وأمضت الشركة أشهرا في تطوير النظام الجديد من خلال تلقينه مداخل ومخارج اللغة الطبيعية عبر تحليل آلاف الكتب الرقمية، وجميع محتوى ويكيبيديا، وما يقارب تريليون كلمة نُشرت على المدونات، ومنصات التواصل الاجتماعي، والإنترنت بوجه عام.
وذكر الكاتب أن مكاي ريغلي، وهو مبرمج حواسيب يبلغ من العمر 23 عاما من مدينة سولت ليك، كان من المبرمجين القليلين الذين تمت دعوتهم لمعالجة هذا النظام القادر على توظيف زاده المعرفي من النصوص الرقمية لتوليد نصوص جديدة بنفسه. وقد تساءل ريغلي عما إذا كان بإمكان هذا النظام تقليد الشخصيات العامة، والكتابة بأسلوبها، وربما حتى الدردشة مثلها.
وفي الأسابيع التي تلت ابتكارها، خضعت خوارزمية "جي بي تي-3" لعشرات الاختبارات المثيرة للدهشة، من كتابة التغريدات والقصائد الشعرية، وتلخيص رسائل البريد الإلكتروني، إلى الإجابة عن أسئلة الثقافة العامة، والترجمة من وإلى لغات عدة بل وحتى كتابة برامج الحاسوب الخاصة بها.
وأذهلت هذه المهارات الخبراء، وعدّ كثير من الباحثين في مجال الذكاء الاصطناعي أن هذه الخطوة غير متوقعة في مجال الآلات التي يمكنها فهم تقلبات اللغة البشرية، وربما حتى التعامل مع المهارات البشرية الأخرى.
وأشار الكاتب إلى أن خوارزمية "جي بي تي-3" ليست خالية من العيوب، فغالبا ما تولّد لغة متحيزة وسامة. وعندما طلب من هذه الأداة توليد 10 فقرات متبعة أسلوب عالم النفس سكوت باري كوفمان، كانت الفقرات الخمس الأولى مقنعة لكن الخمس المتبقية لم تكن كذلك. وعندما دردش مع شبيهه من الذكاء الاصطناعي، لم يكن كوفمان منبهرا كما حدث معه في البداية.
ولكن حتى بوجود هذه الأخطاء، بدت المحادثة حقيقية، وهو ما يعكس ما يمكن للنظام فعله بنفسه دون إدخال مزيد من التعديلات عليه.
ويعدّ هذا النظام تتويجا لأعوام من العمل الدؤوب داخل مختبرات الذكاء الاصطناعي الرائدة في العالم، بما في ذلك المختبر التابع لمؤسسة "أوبن إيه آي" -التي تدعمها شركة "مايكروسوفت" بتمويل قدره مليار دولار أميركي- والمختبرات التابعة لشركتي "غوغل" و"فيسبوك".
ويُذكر أن شركة غوغل تمتلك نظاما مشابها يساعد في الإجابة عن الاستفسارات على محرك بحث الشركة.
وأوضح الكاتب أن هذه الأنظمة -المعروفة باسم قوالب اللغات العالمية- يمكن أن تساعد في تشغيل مجموعة واسعة من الأدوات، على غرار الخدمات التي تلخص تلقائيا المقالات الإخبارية و"روبوتات الدردشة" المصممة للمحادثات عبر الإنترنت. وحتى الآن، كان تأثير هذه الأنظمة في تكنولوجيا الواقع ضئيلا.
ولكن خوارزمية "جي بي تي-3" التي تعلمت من مجموعة أكبر بكثير من النصوص عبر الإنترنت مقارنة بالأنظمة السابقة يمكنها أن تفتح المجال أمام مجموعة واسعة من الاحتمالات الجديدة، مثل البرامج التي يمكنها تسريع تطوير تطبيقات الهواتف الذكية الحديثة، أو روبوتات الدردشة التي باستطاعتها التواصل بأسلوب بشري أكثر مقارنة بالتقنيات السابقة.
وفي الوقت الذي يستكشف فيه مصممو البرمجيات ورجال الأعمال والنقاد والفنانون هذا النظام، فإن كل تجربة جديدة تثير جدلا محتدما بشأن الإمكانات التي يمكن أن يكتسبها هذا النوع من التكنولوجيا في نهاية المطاف. وفي حين يزعم البعض أن هذا النظام قد يمهد الطريق أمام ظهور آلات ذكية بالفعل، فإن البعض الآخر يرى أن هذه التجارب تعدّ مضللة أيضا.
هل استخدامه آمن؟
تخطط شركة "أوبن إيه آي" لتحويل نظام "جي بي تي-3" إلى منتج تجاري يمكن استخدامه على نطاق واسع. وقد وصف جيروم بيسنتي، نائب رئيس الذكاء الاصطناعي في فيسبوك، هذا النظام بأنه "غير آمن"، مشيرا إلى اللغة العنصرية والسامة التي استعملها النظام عندما طُلب منه مناقشة موضوعات تتعلق بالنساء والسود واليهود.
وقد يكون هذا أحد أسباب عرض شركة "أوبن إيه آي" لهذا النظام مع عدد قليل فقط من المختبرين. وصمّم مختبر الشركة مرشحات تحذّر من احتمال ظهور لغة سامة، ولكنها لن تكون ناجعة في حل مشكلة لا يعلم أحد كيفية حلها.
ونقل الكاتب عن ليزا أوسوليفان، نائبة رئيس شركة "آرثر" التي تساعد الشركات في إدارة سلوك تقنيات الذكاء الاصطناعي، أن المسؤولية تقع في نهاية المطاف على عاتق الشركة.
ويشعر خبراء آخرون بالقلق من أن نماذج توليد نصوص مثل هذه يمكن أن تساعد في نشر المعلومات المضللة عبر الإنترنت، مما يزيد من الحملات التي ربما تكون قد ساعدت على التأثير في الانتخابات الرئاسية لعام 2016.
وينبئ هذا النظام بمستقبل قد لا نكون فيه متأكدين مما إذا كان ما نقرؤه حقيقيا أم مزيفا، وهذا ينطبق على التغريدات والمحادثات عبر الإنترنت وغيرها من المحتوى الرقمي.
العيوب التي لا يلاحظها أحد
صمّم جوزيف وايزنباوم، الباحث في معهد ماساتشوستس للتكنولوجيا، في منتصف الستينيات معالجا نفسيا آليا أطلق عليه اسم "إليزا". وعلى عكس خوارزمية "جي بي تي-3″، لم تتعلم إليزا من النصوص، بل من خلال قواعد قليلة حددها مصممها.
وكانت إلى حد كبير تقوم بتكرار كل ما يُقال لها بصيغة سؤال، ولكن ما أثار دهشة الدكتور وايزنباوم هو أن العديد من الأشخاص تعاملوا مع الروبوت كما لو كان إنسانا، وتحدّثوا عن مشكلاتهم دون تحفّظ.
وأشار الكاتب إلى أن هذا جزء فقط مما يحدث مع خوارزمية "جي بي تي-3″؛ فنظرا لأنها قادرة على توليد تغريدات مقنعة ومنشورات مدونة ورموز حاسوب، نرى جانبا من الإنسانية في هذا النظام الرقمي ونولي اهتماما أقل لنقائصه.
ولا شك أن "جي بي تي-3" أداة جديدة للباحثين ورجال الأعمال في عالم الذكاء الاصطناعي، وطريقة لبناء جميع أنواع التقنيات والمنتجات الجديدة، ولكن يظل مدى فعالية الخدمات التي تقدمها في نهاية المطاف غير واضح.
وبما أن خوارزمية "جي بي تي-3" تولّد النص الصحيح في أغلب الأوقات فقط، فهل يمكنها إرضاء المحترفين؟ من غير الواضح أيضا ما إذا كانت هذه التقنية ستمهد الطريق نحو تصميم آلات محادثة حقيقية، فضلا عن أنظمة ذكية بالفعل.
المصدر : نيويورك تايمز