ناقشنا عدة أمور برمجية يضرك عملها بالذكاء الاصطناعي, دعونا نناقش أمر آخر اليوم.
يعتبر ChatGPT صديق رائع, إنه يفهمني أكثر من أشخاص كثر. عبارات ستجدها في منشورات وتعليقات ومحادثات الكثير من الناس حول العالم.
تطور الذكاء الاصطناعي خلال السنين الأخيرة من الأمور الرائعة في مجالات التقنية, والذي يتطور باستمرار ويشمل العلوم والبرمجة والهندسة والطب وغير ذلك.
من المفيد جدا مشاركة الذكاء الاصطناعي في أداء الكثير من المهام اليومية, لكن هل يمكن الاعتماد عليه في كل شيء, أو هل يمكن أن يكون بديل عن أي شيء, دعونا نلقي نظرة.
هل يمكن الاعتماد على الذكاء الاصطناعي كمرشد أو صديق.
أولًا, إذا ذهبت لإعلانات OpenAI أو Google أو غيرهم حول نماذج الذكاء الاصطناعي, ستجد كل الإعلانات عن تحسين التعامل في البرمجة, أداء المهام, الدراسة, التفكير العلمي, لكنك لن تجد أي إعلان عن تحسين نموذج ليكون صديق أو يمثل شخص قريب يمكن الثقة به والاعتماد عليه.
وإذا افترضنا إنك تعتبر ChatGPT على سبيل المثال من أصدقائك, فيؤسفني القول أن الصداقة تتطلب الثقة, ونماذج الذكاء الاصطناعي بمختلف خدماتها وشركاتها لا يمكن الثقة بها.
هذا ليس كلامي, هذا كلام الشركات نفسها, ففي كل خدمة قبل بدء محادثة ستجد ملاحظة أن الردود لا ييمكن الاعتماد عليها ولا يمكن الوثوق بها, ويشجعوك على مراجعة المعلومات والتحقق منها.
لكن ماذا عن مراجعة ردوده بخصوص الأمور الشخصية, عند ما نسأل الذكاء الاصطناعي عن طريقة التعامل مع الناس, المشاعر, المواقف, الأمور العاطفية, الأمور النفسية, المشاكل الشخصية, المشاكل مع الناس, إذا أجاب بشكل عشوائي أو غير موثوق, ماذا نفعل, أين يمكننا التحقق من الإجابة.
هل نبحث على Google, سنجد مقالات تناقش وجهات نظر مختلفة, وهنا نصل إلى أن الذكاء الاصطناعي كرر وجهات النظر المذكورة في المواقع والمنتديات.
إذن, ما الذي قدمه الذكاء الاصطناعي.
الإجابة سهلة للغاية, قدم ما يؤيد وجهة نظرك, وهذا ما قد يجعلك تعتبره صديق ويفهمك, لكن هل هذا صحيح, أي هل هو يفهمك فعلًا, دعونا نكتشف ذلك.
قبل عدة شهور أطلقت OpenAI تحديث لنماذجها وقامت بسحبه بسبب أن النموذج بدأ يؤيد المستخدم في كل شيء, الشركة اعتبرت أن النموذج يفعل ما أسمته تزلف, حيث وصل إلى مرحلة تسأله هل أنت أفضل من كل البشر, وسيجيبك بنعم.
لكن ما لم تعترف به الشركة أن هذا المبدأ موجود مع مختلف نماذج وخدمات الذكاء الاصطناعي, وكل ما حدث أن الأمر أصبح واضح أكثر من اللازم, ولذلك سحبت الشركة التحديث للتخفيف من فعالية النموذج في هذا المجال.
لكن اختبره اليوم, اذهب واشرح له معلومة, اسأله هل هي صحيحة, إذا كان سيخبرك إنها ليست كذلك, سيبدأ بتأييد كلامك, ثم يخبرك بالتصحيح بطريقة تجعلك تعتقد إنك تمتلك معلومة صحيحة فعلًا.
وذلك لعدة أسباب, أهمها أن تبقى تستخدم النموذج, تمنح الشركة المطورة بيانات أكثر, فإذا طرحت على النموذج سؤال أو وجهة نظر ورد بطريقة تختلف عن وجهة نظرك بشكل صريح, ببساطة ستعتبره رد سلبي وتحذف التطبيق أو تترك الموقع.
نرى البعض يطرح وجهة نظره على الذكاء الاصطناعي ثم يأخذ رده وينشره على إنه تأييد لوجهة النظر وصحتها, بينما الواقع يقول أن النموذج كان يؤيد صاحب وجهة النظر, وليس وجهة النظر نفسها.
والآن, نريد أن نعود ونذكر الجميع كيف يعمل الذكاء الاصطناعي.
لن ندخل في تفاصيل تقنية فهذا ليس مقال تقني, لكن ببساطة حتى يصبح النموذج قادر على الرد على كلمة مرحبًا, تم تدريبه من خلال عرض عليه الكثير من كلمات مرحبًا والردود المختلفة عليها, ثم دروس لغات تشرح كيفية الرد على كلمة محددة بعبارة محددة, ثم فصل العبارات لتكوين جمل مختلفة, وأخيرًا, كل ما يفعله الذكاء الاصطناعي هو ترديد ما سمعه أثناء التدريب. لذلك أضرار على المحتوى الأصلي نناقشها في وقت لاحق.
لاختبار ذلك توجد طرق مثل إنشاء Gem في Gemini ثم منحه ملفات محددة, لتعتمد ردوده على محتوى الملفات, وهنا, تم تدريب النموذج على أفكارك من الملفات.
ونرى صحف أمريكية وعالمية تطارد OpenAI في المحاكم بسبب استخدام ملايين المقالات لتدريب النماذج دون إذن أصحابها.
إذن, النموذج يؤيدك, يكرر كلام تدرب عليه, وهو ليس صديق, ولن يكون صديق.
لا يكتفي النموذج بتكرار الكلام الذي تدرب عليه, دعونا نعود إلى هذه النقطة من خلال نقطة مختلفة.
في بودكاست قبل أسبوع, تحدث سام ألتمان الرئيس التنفيذي لشركة OpenAI عن خصوصية المحادثات, حيث أشار إلى أن المحادثات مع GPT لا توجد قوانين تحمي خصوصيتها, فالأشخاص الذين يبحثو عن بديل لمرشد نفسي على سبيل المثال, سيستخدمو ChatGPT وهنا, تفقد المحادثة خصوصيتها.
لكنه لن يقول أن المحادثة تفقد خصوصيتها بشكل قانوني فقط, بل مجرد تفعيل خيار التدريب واستخدام الخدمة, أنت تمنح الشركة حق استخدام رسائلك وبياناتك لتدريب نماذجها وتحسينها.
بشكل افتراضي, تقوم OpenAI بتدريب نماذجها على محادثاتك, وأكثر من ذلك, تجعل النموذج يستخدم محادثاتك السابقة للرد على محادثاتك الجديدة, وهذا ما يجعل البعض يعتقد أن النموذج يتصرف بشكل طبيعي وشبه البشر, وليس أي من البشر, بل صديق يستخدم مصطلحاتك ويفهمك ويتعامل معك كأنه شخص مقرب.
يوجد خيار لتعطيل التدريب في GPT لكن الغالبية لا يستخدموه, أما Gemini فيمنحك الميزة مقابل فقد ميزات أخرى مثل سجل المحادثات.
لا داعي لنتحدث عن Meta AI كثيرًا, فالشركة تستخدم محادثاتك وبياناتك بكل صراحة ولا تتيح لك منع ذلك.
وحتى مع تعطيل التدريب أو حذف المحادثة, او منع تسجيل المحادثة أصلًا, ستحتفظ الشركات بمحادثاتك لمدة مختلفة, تبريرهم أن السبب هو لأغراض قانونية, لكن بشكل عملي, نحن نعرف أن السبب هو تدريب النماذج على رسائلك.
إذن, ناقش أسرارك وأمورك الشخصية مع الذكاء الاصطناعي, فتأخذ الشركات رسائلك وتدرب النموذج عليها, ثم يأتي شخص آخر ليناقش أفكار مماثلة, فيجد أن الذكاء الاصطناعي لديه خبرة في هذا المجال, بالطبع الخبرة من محادثاتك أنت ومن قبلك, فكما ذكرنا, هو لا يفعل شيء باستثناء تكرار ما تدرب عليه.
هل تريد مصادر بديلة, هيا بنا.
توجد الكثير من المواقع للدعم النفسي, او ما يسمى بالدعم العاطفي, ثم مواقع ومنتديات تكوين الصداقات, ولدينا موقع مثل Quora الذي يصف نفسه بأنه موقع لاكتساب المعرفة ومشاركتها, حيث ستجد سؤال عن كل شيء وأي شيء ونقاشات حول كل شيء.
دعونا نأخذ مثال آخر سريع, قبل مدة, تحدث مطور Playroom عن استخدام نسخ مؤقتة من المنتديات لتخفيف الضغط على الخادم, بسبب قيام نماذج الذكاء الاصطناعي بسحب محتوى المنتديات والتدرب عليه.
في Playroom منتدى للنقاشات غير المتعلقة بالمنصة نفسها, هناك قد تجد مناقشات كثيرة حول حياة المكفوفين اليومية, والتي تتضمن وجهة نظر أصحابها, والتي قد تكون سلبية, ثم يأخذها النموذج وعند طرح سؤال عليه سيقدمها على إنها رد موثوق بما إنه من نموذج يرتبط اسمه بالذكاء.
ماذا نريد أكثر من ذلك لنعرف أن الذكاء الاصطناعي ليس صديق, وليس شخص يمكنه فهمك, ربما المعلومات التالية تفيدنا أكثر.
أثناء بحثي عن مقالات تناقش الأمر, وجدت أمور مدهشة, فبعيدًا عن استخدام الذكاء الاصطناعي كبديل عن الأصدقاء والأطباء والمحاميين أحيانًا, وجدت أن بعض خدمات الذكاء الاصطناعي حرضت مراهقين على القتل أو الانتحار.
كما وجدت مقالات تتحدث عن إدمان بعض المستخدمين على محادثة الذكاء الاصطناعي واعتباره بديل عن محادثة البشر, قد يبدو هذا أمر فيه الكثير من المبالغة, لكن لا يوجد شيء مستحيل, وليس للجميع نفس التفكير.
وبالحديث عن المراهقين, تقدم حاليًا عدة شركات بوتات مخصصة لتمنحك صديق أو صديقة مقربين لتأخذ العلاقة منعطف يبعدها عن الصداقة فقط, ومنهم Meta و xAI, فماذا تريد شركة مثل Meta أكثر من قيامك بمحادثة خاصة مع بوت من تطويرهم حيث يجمع كل ما تريده الشركة من معلومات عنك, لتعرض إعلانات أكثر وتبيع بياناتك بحرية.
إذا سيفكر أي شخص بنماذج الاستدلال والتفكير العميق, فالشركات نفسها تنصح المستخدمين بالاعتماد على هذه النماذج في الأمور العلمية, وحتى هذا النوع من النماذج توجد الكثير من الدراسات والأبحاث التي تجادل بصحة آلية عمله, ومنهم شركة Apple.
الخلاصة:
ماذا نستنتج من كل ما سبق, ببساطة, أمورك الخاصة ليست للذكاء الاصطناعي, بياناتك الشخصية ينطبق عليها الأمر نفسه, الذكاء الاصطناعي نموذج آلي تم تدريبه على بيانات تتضمن ملايين النصوص المختلفة, وهو يكررها, هو ليس صديق, هو أداة مساعدة, لا يمكن القلق منه طالما إنك تتعامل معه في المجال الذي يناسبه.
تجنب الاعتماد على الذكاء الاصطناعي, استخدمه كأداة مساعدة, فالأشخاص الذين يعتمدو على الذكاء الاصطناعي كبديل عن العمل اليدوي في كل شيء, لنأخذ البرمجة على سبيل المثال, إذا توقف الذكاء الاصطناعي لمدة شهر لن يتمكنو من القيام بأي شيء برمجي.
أخيرًا, احتفظ بالتفكير المنطقي لكل شيء, عند الرد عليك بأي رد تراه مميز, حاول أن تفكر كيف توصل النموذج إلى ما يجعله يرد بهذه الطريقة.
ملاحظة, خدمات الذكاء الاصطناعي لعمل شخصيات وهمية تعتمد على نماذج من الشركات الكبيرة, وتقوم بتخصيص الردود فقط, ولذلك هي لا تقدم جديد, فعند ما نقول أن الشركات لا تتحدث عن تحسين النماذج في مواقف مثل أن يكون صديق, نحن نتحدث عن الشركات المطورة للنماذج التي تستخدمها المواقع وتخصصها.
انتقل إلى أي خدمة مثل ChatGPT واطلب منه أن يتحدث معك بشخصية هيركيول بوارو على سبيل المثال, والآن أصبح المحقق الشهير في روايات أجاثا كريستي كصديق لك.
سنناقش نقاط مختلفة حول الذكاء الاصطناعي باستمرار في المستقبل.