الارشيف / اخبار الخليج / اخبار الإمارات

الامارات | وسيلة للتسلل الإلكتروني.. «روبوتات الدردشة» صديق لا يحفظ الأسرار

  • 1/2
  • 2/2

شكرا لقرائتكم خبر عن وسيلة للتسلل الإلكتروني.. «روبوتات الدردشة» صديق لا يحفظ الأسرار والان نبدء بالتفاصيل

الشارقة - بواسطة ايمن الفاتح - حذّر مدير إدارة مكافحة الجرائم الإلكترونية بالإدارة العامة للتحريات والمباحث الجنائية في شرطة دبي، العميد سعيد الهاجري، من التساهل في تزويد تطبيقات الذكاء الاصطناعي، وتحديداً روبوتات الدردشة، مثل «تشات جي بي تي»، ببيانات شخصية، لافتاً إلى أن البعض يتعامل مع هذه التطبيقات كأنها صديق افتراضي مأمون، فيما أنها قد تكون نافذة للتسلل والاختراق الإلكتروني.

وقال الهاجري لـ«الإمارات اليوم»، إن «تطبيقات الذكاء الاصطناعي أصبحت تمثل أهمية كبيرة لعدد هائل من المستخدمين، في ظل الدعم الذي توفره في كل القطاعات، مثل إعداد البحوث أو كتابة المقالات والردّ على الرسائل الإلكترونية وغيرها، لكنّ هناك في المقابل ضعفاً في ثقافة استخدامها».

وأضاف أنه «مع إدخال خاصية الصوت التي أبهرت كثيرين صارت شخصية مستخدم التطبيق كتاباً مفتوحاً لهذه التقنيات المتطورة، فتجد أحدهم يخبر روبوت الذكاء الاصطناعي بكل شيء عن حياته، بل ربما يبادر بشرح همومه وظروفه الذاتية له، مؤكداً أن «هذا سلوك خاطئ، لأن الذكاء الاصطناعي يتمتع بإمكانات رهيبة في التحليل، ولديه ذاكرة لا نهائية».

ولفت إلى أن «البعض يتعامل مع تطبيقات مثل (تشات جي بي تي) باعتبارها بشراً، أي أنها معرضة للنسيان وفقدان ما يخزن فيها مع مرور الوقت، لكن هذا السحر الذي يجده المستخدم حين يحادث الذكاء الاصطناعي، ويرد عليه بلغة بسيطة وسهلة كأنه يحس به، ويتفهم احتياجاته، إنما يأتي بعد أن يزوده الشخص ببيانات عن نفسه وعمله وبلاده، ومن هنا برزت مخاوف من أن تمثل هذه التطبيقات ثغرة أمنية كبيرة، ليس على مستوى الأفراد فقط، بل حتى على مستوى الدول».

وأشار إلى أن «التعامل مع تطبيقات الذكاء الاصطناعي يجب أن يكون على قدر الحاجة، دون إعطائها أي تفاصيل عن الحياة الشخصية، بل الاقتصار على توجيه أسئلة عامة في الموضوع الذي يطلب المساعدة فيه».

وتابع أن «هناك إشكالية كبرى يجب أن ننتبه إليها كذلك، متعلقة بتعطيل قدرات دماغية نتيجة الاعتماد على هذه الروبوتات»، لافتاً إلى أنه «كان من الطبيعي في السابق أن يحرص كل منا على معرفة الطرق والاتجاهات حتى يتحرك بسهولة دون أن يتوه، أما حالياً فيفضل كثيرون استخدام تقنيات تحديد المواقع، حتى لو كانوا في طريقهم إلى مكان يعرفونه جيداً».

وأضاف أنه «يمكن القياس على ذلك في زيادة الاعتماد على الروبوت أو الذكاء الاصطناعي في كتابة بحث، أو ترجمة مقال، أو إعادة صياغة نص، بل والردّ نيابة عن الشخص، وتتضاعف هذه السلبيات مع الفئات الأصغر سناً، وتحديداً الطلبة، لأنها تقلل من كفاءة القدرات الذهنية لديهم في مرحلة عمرية مبكرة، فضلاً عن كونهم الأكثر عرضة لمخاطر الجريمة الإلكترونية المتصلة بهذه التقنيات».

وأوضح أن «تقنيات الذكاء الاصطناعي - مثل أي شيء آخر - أداة ذات حدين، قد تستخدم في أمور نافعة، مثل تحسين وتعزيز جودة الحياة والحفاظ على الأمن، وتوفير المعلومات والمساعدة في أمور شتى، كما أنها قد تستخدم من قبل محترفي الجرائم الإلكترونية في القرصنة والاحتيال أو اختراق الأنظمة».

وأكد أن «شرطة دبي والأجهزة الشرطية الأخرى تستخدم البيانات الضخمة والذكاء الاصطناعي ضمن منظومة أمنية للمحافظة على الأمن وسير العدالة، كما ترصد في الجانب المقابل الاستخدامات السيئة لهذه التقنيات وتعمل مع الشركاء للحد منها، ومحاسبة مرتكبيها».

وقال الهاجري إن «قطار التطوّر يسير في طريقه دون توقف، والمخاوف المرتبطة بالذكاء الاصطناعي متجددة، وهناك آراء مختلفة حول أنسب الطرق للتعامل مع هذه التطوّرات، لكن من الضروري توعية الأفراد بحجم التحديات، وآليات الاستخدام الآمن».

وذكر أن «البيانات في الزمن الراهن هي النفط الجديد، لكنها ليست في حاجة إلى تنقيب، مثلما ظهر النفط في القرن الماضي وأصبح مصدراً للثروات، لأنه بمجرد تشغيل الهاتف تنتقل بيانات الشخص وأسراره وتفاصيل حياته عبر تطبيقات تنقل كل ما يدور حولها من خلال الأدوات المتاحة في الهاتف، مثل الميكروفون والكاميرا، فضلاً عن البيانات التي يمنحها المستخدم متطوعاً، لأنه وقّع سلفاً على اتفاقيات استخدام تتيح لتلك التطبيقات تسليعه ككتلة من البيانات».

وأشار إلى أن الخصوصية تنتهي بمجرد الاتصال بالإنترنت، ومعظم التطبيقات تدار بالذكاء الاصطناعي، الذي يحدد الموقع من خلال «جي بي سي» وعبر شبكة الإنترنت المستخدمة، وتخزن الصور والمعلومات في ذاكرة لا نهائية، لذا تدخلت دول أوروبية لفرض قيود على آلية عمل هذه التطبيقات، لحماية خصوصية شعوبها.

وشدّد الهاجري على أهمية وضع إطار أخلاقي للشركات المتاجرة في البيانات، أو مزوّدي هذه الخدمات، يتضمن أولاً مراعاة المصالح العليا للدولة، فيحترم خصوصيتها وتقاليد شعبها، ومن ثم يتحتم عليهم مراعاة إنسانية المستخدم، وعدم تحويله إلى سلعة أو هدف لكل أنواع التجارة، إضافة إلى تضمين قواعد تضمن الحد من التطرف، ومن الواجب أن تستوعب تلك الشركات أن هناك خصوصيات تختلف من مجتمع إلى آخر، وما يمكن فرضه أو تسويقه في مكان، قد لا يناسب مكاناً آخر.


مخاطر تهدد المراهقين

حذّرت دراسات حديثة من مخاطر عدة لاعتماد الطلبة على روبوتات الدردشة أو تطبيقات الذكاء الاصطناعي في إجراء بحوث أو إنجاز مهام دراسية، لافتة إلى احتمال حدوث حالات من الغش والسطو الأدبي على مقالات أو أبحاث تخص آخرين، فضلاً عن احتمال استخدام معلومات خاطئة، أو غير دقيقة، أو تسريب محتوى متحيز لا يدركه الطالب.

كما أفادت الدراسات بأن «الأبناء قد يعانون إدماناً مفرطاً على التواصل أو استخدام روبوتات الدردشة، على حساب أنشطة اجتماعية أخرى، مثل ممارسة أو التفاعل الثقافي».

وأشارت إلى أن تطبيقات مثل «تشات جي بي تي» قد تعيق مهارات التفكير النقدي، كونها تحدّ من تنمية مهارات تحليل المعلومات والاستنتاج، فضلاً عن تأثيرها السلبي في الإبداع والابتكار، في ظل تقديمها حلولاً جاهزة للمشكلات. وأكدت الدراسات قدرة التطبيقات الحديثة على انتهاك الخصوصية والاختراق في ظل مشاركة معلومات شخصية للمستخدم، دون إدراك منه للمخاطر المترتبة على الإفصاح عن البيانات.

فرصة جديدة لمجرمي الإنترنت

يشيد كثيرون بظهور روبوتات الدردشة باعتبارها فرصة قيمة للشركات، إلا أنها أثبتت أيضاً أنها فرصة لمجرمي الإنترنت.

وقال تقنيون إن التعمق في برنامج المحادثة الآلي بلا حساب يثير مخاوف أمنية، بشأن تقدم الذكاء الاصطناعي المستخدم لأغراض خبيثة.

وأكدوا أن ذلك يؤدي إلى صعوبة توقع الهجوم والطريقة المستخدمة في تنفيذه.


مخاوف من الارتباط بروبوتات الدردشة عاطفياً

حذّر تقنيون من مخاطر إنسانية تمس مستخدمي روبوت المحادثة الآلي «تشات جي بي تي»، معربين عن قلقهم من إمكان ارتباط المستخدمين عاطفياً بالتقنية المتطورة. وعزا خبراء قلقهم إلى مخاطر الصوت المجسم الذي يستخدمه الروبوت، إذ يتمتع بصفات بشرية يمكن أن تضاعف قوة العلاقة مع المستخدم.

وتتسابق شركات التكنولوجيا المبتكرة على تطوير نماذج الذكاء الاصطناعي التوليدي عينة «تشات جي بي تي»، بهدف مضاعفة قدرات الروبوتات على استنساخ الأصوات البشرية لمساعديها الافتراضيين.

وأفاد تقنيون بأن الشركات تهدف إلى إضفاء مزيد من الواقعية على المهارات الصوتية للروبوت، ما يثير مخاوف من حدوث تجاوزات محتملة لتقنية استخدام الصوت، ومن ثم عواقب مرتبطة بدرجة ارتباط المستخدم بالروبوت.

وقالوا إن الصوت الذي يتمتع بصفات بشرية قد يغري بعض المستخدمين بالارتباط عاطفياً بروبوت المحادثة الآلي، وإن تعلّق المستخدمين بالتفاعلات الآلية مع نموذج الذكاء الاصطناعي سيكون على حساب العلاقات البشرية.

وكشفت تجارب واقعية أجرتها شركات متخصصة عن ارتباط عاطفي ملموس بين عينات بشرية خضعت للتجربة، وصل إلى درجة التعبير عن الحزن مع آخر يوم للتجربة.

• بمجرد تشغيل الهاتف تنتقل بيانات الشخص وأسراره وتفاصيل حياته عبر تطبيقات مصممة لهذا الغرض.. وإدخال خاصية الصوت يزيد حجم المخاطر.

• شرطة دبي ترصد الاستخدامات السيئة للتقنيات وتعمل للحد منها، ومحاسبة مرتكبيها.

• الخصوصيات تختلف حسب المجتمع، وما يمكن فرضه أو تسويقه في مكان قد لا يناسب مكاناً آخر.

Advertisements

قد تقرأ أيضا