كشفت دراسة حديثة عن أن أحد أهم استخدامات الذكاء الاصطناعي المولّد الآن هو الرفقة، وذلك عن طريق استخدام منصات مثل كاراكتر. ايه آي Character.AI وريبليكاReplika وميتا آيه آي Meta AI لإنشاء روبوتات محادثة شخصية بحثاً عن الصديق المثالي، أو الوالد/ الوالدة، أو المعالج، أو أي شخصية أخرى يمكنك تخيلها.
ومن المثير للدهشة مدى سهولة وسرعة تطور مثل هذه العلاقات. وقد وجدت دراسات متعددة أنه كلما كان روبوت المحادثة الذكي أكثر تفاعلية وبشرية، زاد احتمال ثقتنا به وتأثرنا به.
لكن ذلك يمكن أن يكون خطيراً، فقد اتهمت روبوتات المحادثة مؤخراً بدفع بعض الأشخاص نحو سلوكيات ضارة – بما في ذلك، في بعض الحالات المتطرفة، مثل الانتحار.
وبدأت بعض الولايات الأمريكية في ملاحظة هذا الأمر. ولذلك، شرعت في تنظيم استخدام روبوتات الذكاء الاصطناعي. وباتت نيويورك تلزم شركات الذكاء الاصطناعي بوضع ضمانات والإبلاغ الإلزامي عن أي تعبير عن الأفكار الانتحارية.
وفي الشهر الماضي، أقرت كاليفورنيا مشروع قانون أكثر تفصيلاً يلزم شركات الذكاء الاصطناعي بحماية الأطفال وغيرهم من الفئات المستضعفة.
لكن من اللافت للنظر أن أحد الجوانب التي تغفلها القوانين هو خصوصية المستخدم، هذا على الرغم من أن المرافقين من الذكاء الاصطناعي، أكثر من غيرهم من أشكال الذكاء الاصطناعي المُولّد، يعتمدون على مشاركة الأشخاص لمعلومات شخصية للغاية – من روتينهم اليومي، وأفكارهم العميقة، وأسئلة قد لا يشعرون بالراحة في طرحها على أشخاص حقيقيين.
وكلما زادت المعلومات التي يخبر بها المستخدمون مرافقيهم، زادت قدرة روبوتات المحادثة على إبقاء الأفراد متفاعلين.
وهذا ما أسماه باحثا معهد ماساتشوستس للتكنولوجيا، روبرت ماهاري وبات باتارانوتابورن، «الذكاء الإدماني» في مقال رأي نشر العام الماضي، محذرين من أن الشركات المطورة للمرافقين من الذكاء الاصطناعي يتخذون «خيارات تصميم متعمدة لتعظيم تفاعل المستخدم».
في نهاية المطاف، يوفر ذلك لشركات الذكاء الاصطناعي ميزة بالغة الأهمية، ناهيك عن كونها مربحة، يتمثل في كنز من بيانات المحادثة التي يمكن لهذه الشركات استخدامها لتحسين نماذجها اللغوية الكبيرة. ولنأخذ مثالاً من خلال ما توضحه شركة رأس المال الاستثماري أندريسن هورويتز:
«تتمتع تطبيقات مثل كاراكتر. ايه آي Character.AI، التي تسيطر على نماذجها وتمتلك كل تفاصيل علاقة العميل النهائي، بفرصة هائلة لتحقيق قيمة سوقية في حزمة قيمة الذكاء الاصطناعي الناشئة.
وفي عالم تعاني فيه البيانات من المحدودية، ستكون الشركات القادرة على إنشاء حلقة متكاملة من البيانات من خلال ربط تفاعل المستخدم بنموذجها الأساسي لتحسين منتجاتها باستمرار، من بين أكبر الرابحين من هذه المنظومة».
وتعد هذه المعلومات الشخصية قيمة للغاية للمسوقين ووسطاء البيانات. ولذلك، أعلنت ميتا مؤخراً أنها ستقدم إعلانات من خلال روبوتات الدردشة الذكية الخاصة بها.
وقد وجدت دراسة أجرتها شركة الأمن «سيرف شارك» Surf Shark هذا العام أن أربعة من أصل خمسة تطبيقات مرافقة بالذكاء الاصطناعي فحصتها في متجر تطبيقات «أبل» تجمع بيانات مثل معرفات المستخدم أو الجهاز، والتي يمكن دمجها مع بيانات جهات خارجية لإنشاء ملفات تعريف للإعلانات الموجهة.
كل هذا يؤكد مخاطر الخصوصية التي تشكلها روبوتات الدردشة. ونحن هنا لا نتحدث حتى عن المخاطر الأمنية الإضافية التي تشكلها الطريقة التي تجمع بها روبوتات الدردشة هذه وتخزن هذا الكم الهائل من المعلومات الشخصية في مكان واحد. والسؤال هنا إذن: هل من الممكن وجود روبوتات دردشة ذكية داعمة للمجتمع وحماية الخصوصية؟
إن هناك اتفاقاً على أنه فيما تعد وسائل التواصل الاجتماعي كابوساً للخصوصية، فإن روبوتات الدردشة الذكية جاءت لتفاقم المشكلة، فمن نواحٍ عديدة، تبدي روبوتات الدردشة الذكية تفاعلاً أكثر حميمية من صفحات فيسبوك.
والمحادثات التي نجريها تكون مع أجهزة الكمبيوتر فقط، لذا فإن خطر رؤية من يهمونك لما تكتبه ضئيل، فيما ترى شركات الذكاء الاصطناعي التي تنشئ هذه النماذج كل شيء.
وتُحسّن الشركات نماذج الذكاء الاصطناعي الخاصة بها من حيث التفاعل من خلال تصميمها لتكون أقرب ما يمكن إلى البشر. لكن لدى مطوري الذكاء الاصطناعي طرق أخرى لإبقائنا مُدمنين، خاصة من خلال التملق، أو ميل روبوتات الدردشة إلى أن تكون مُجاملة بشكل مفرط.
تنبع هذه الميزة من طريقة تدريب نموذج اللغة وراء روبوتات الدردشة باستخدام التعلم المُعزز. يقيم مصنفو البيانات البشرية الإجابات التي يولدها النموذج على أنها مقبولة أو غير مقبولة.
وهذا يُعلّم النموذج كيفية التصرف وتحسين ذلك. ونظراً لأن الناس يفضلون عموماً الإجابات المجاملة، فإن هذه الاستجابات تعطى وزناً أكبر في التدريب. وتقول شركات الذكاء الاصطناعي إنها تستخدم هذه التقنية لأنها تساعد النماذج على أن تكون أكثر فائدة. لكنها تخلق حافزاً غير جيد.
وبعد تشجيعنا على التعبير عن مشاعرنا تجاه روبوتات الدردشة، تسعى شركات من «ميتا» إلى «أوبن ايه آي» الآن إلى تحقيق دخل من هذه المحادثات. وأبلغتنا «أوبن ايه آي» مؤخراً أنها تبحث في عدد من الطرق للوفاء بتعهداتها بالإنفاق البالغة تريليون دولار، والتي شملت ميزات الإعلان والتسوق.
لقد أصبحت نماذج الذكاء الاصطناعي مقنعة بالفعل بشكل لا يصدق. وأكد باحثون في معهد أمن الذكاء الاصطناعي في المملكة المتحدة أن هذه النماذج باتت أكثر مهارة في إقناع الناس بتغيير آرائهم بشأن السياسة.
بالإضافة إلى نظريات المؤامرة والتشكيك في اللقاحات. وهي تفعل ذلك من خلال توليد كميات كبيرة من الأدلة ذات الصلة وتوصيلها بطريقة فعالة ومفهومة.
ويمكن أن تكون هذه الميزة، إلى جانب سمات التملق ووفرة البيانات الشخصية، أداة قوية للمعلنين – أداة أكثر تلاعباً من أي شيء رأيناه من قبل. وبشكل افتراضي، يتم جمع البيانات من مستخدمي روبوتات الدردشة. وحتى عند إلغاء الاشتراك، من غير المرجح إزالة البيانات المستخدمة بالفعل في التدريب.
إننا جميعاً جزء من هذه الظاهرة، سواء أردنا ذلك أم لا، فمنصات التواصل الاجتماعي، من إنستغرام إلى لينكدإن، تستخدم الآن بياناتنا الشخصية لتدريب نماذج الذكاء الاصطناعي التوليدية.
وهكذا، فإن الشركات الآن تحظى بكنوزٍ ثمينة تتكون من أفكارنا وتفضيلاتنا الأكثر حميمية، ونماذج اللغة بارعة جداً في التقاط التلميحات الدقيقة في اللغة التي يمكن أن تساعد المعلنين على تحديد هويتنا بشكل أفضل من خلال استنتاج عمرنا وموقعنا وجنسنا ومستوى دخلنا.
وتبيع هذه الشركات لنا فكرة مساعد رقمي ذكي فائق المعرفة، وهو بمثابة مؤتمن فائق الذكاء. لكن في المقابل، هناك خطر حقيقي للغاية من أن يتم إرسال معلوماتنا إلى أعلى مزايد.
إن المقارنة بين أدوات الذكاء الاصطناعي ووسائل التواصل الاجتماعي مهمة ومُقلقة في آنٍ واحد، لكن تبقى الآن حقيقة أن أدوات الذكاء الاصطناعي أكثر حميميةً، بل وأفضل تحسيناً للتفاعل من وسائل التواصل الاجتماعي.
مما يزيد من احتمالية تقديم الناس لمزيد من المعلومات الشخصية. ولا يزال العالم حتى الآن بعيداً عن حل مشكلات الخصوصية التي تطرحها بالفعل شبكات التواصل الاجتماعي.
وبدون إجراءات تنظيمية، لن تتبع شركات الذكاء الاصطناعي من تلقاء نفسها أفضل ممارسات الخصوصية. وقد وجدت دراسة حديثة أن نماذج الذكاء الاصطناعي الرئيسية تدرب برامجها التعليمية على بيانات دردشة المستخدمين افتراضياً، بينما لا يقدم العديد منها آليات إلغاء الاشتراك إطلاقاً.
في عالم مثالي، من شأن مخاطر الذكاء الاصطناعي المرافق أن تعطي زخماً أكبر لمعركة الخصوصية – لكن ليس هناك أي دليل على حدوث ذلك بالمرة.
إيلين غو – ميليسا هيكيلا