Innfrad
81%
Accuracy rank

كيف يشكل الذكاء الاصطناعى خطورة على البشر ؟.. التكنولوجيا الجديدة تسيطر على أغلب المجالات فى المستقبل.. ورفع معدلات البطالة والقتل بدون رحمة والتغلب على العقل البشرى أبرز المخاوف (ريبورتاج)

كيف يشكل الذكاء الاصطناعى خطورة على البشر ؟.. التكنولوجيا الجديدة تسيطر على أغلب المجالات فى المستقبل.. ورفع معدلات البطالة والقتل بدون رحمة والتغلب على العقل البشرى أبرز المخاوف (ريبورتاج) تخيل شكل حياتك فى المستقبل عندما تتولى الآلات القيام بأغلب المهام اليومية، بداية من تنظيم المنزل وتنفيذ الطلبات المختلفة عبر الأوامر الصوتية والإيماءات، وحتى تأدية وظيفتك، فهو أمر يرغب فيه ملايين من البشر حول العالم لأنه سيوفر لهم قدرا كبيرا من الرفاهية، ولكن فى نفس الوقت هو أمر مخيف بشكل كبير بالنسبة لأغلب العلماء والباحثين، ليس فقط لأنه سيتسبب فى مضاعفة نسبة البطالة، ولكن أيضا سيعمل على تهميش دور البشر فى إدارة الحياة ويعزز من سيطرة الربوتات والآلات. مجالات سيقتحمها الذكاء الاصطناعى خلال السنوات القليلة الماضية تمكن الباحثون من تطوير أنظمة ذكاء اصطناعى من شأنها تنفيذ عدد كبير من المهام فى وقت واحد وبدقة عالية، مثل السيارات ذاتية القيادة التى لا تحتاج إلى سائق، فهناك عدد كبير من الشركات الكبرى التى طورت أنظمة حديثة قادرة على هذا الأمر، بالإضافة إلى الروبوتات القادرة على تأدية مهام المذيعين، فحديثا أعلنت هيئة الإذاعة البريطانية bbc أن هناك روبوت سيقدم برنامج "todayshow" خلال فترة الكريسماس وسيكون شبيها بميشال حسين الإعلامية الشهيرة. وليس هذا فقط، بل هناك باحثون نجحوا فى تطوير أنظمة ذكاء اصطناعى يمكنها كتابة قصص الرعب والروايات، وهو ما يعنى أنه حتى الوظائف المتعلقة بالإبداع يمكن أن تسيطر عليها الروبوتات الحديثة، كما أن هناك أنظمة متعددة يتم تطويرها الآن لمساعدة الأطباء فى المستقبل. الذكاء الاصطناعى يمكنه قتل البشر ظهر مصطلح الروبوتات القاتلة بقوة بين الباحثين والمسئولين حول العالم خلال الفترة الأخيرة، وهذا بعد تطوير روبوتات تعمل بأنظمة ذكية للغاية، دفعت البعض إلى التوقع بأنها ستكون قادرة على استخدام تلك الإمكانيات فى الانقلاب على البشر، وليس هذا فقط بل إن هناك روبوتات يمكنها تحديد ملامح البعض وقتلهم دون تدخل من الإنسان، ومؤخرا تم إطلاق حملة لوقف الروبوتات القاتلة، وتم عرض فيلم قصير تستخدم فيه أسلحة آلية لتنفيذ عمليات قتل جماعية بكفاءة مخيفة، بينما يكافح الناس من أجل كيفية مكافحة هذه الأسلحة، لإظهار مدى خطورة مثل هذه الأسلحة الذكية. تخوفات العالم من الذكاء الاصطناعى هناك العديد من الآراء التى تؤيد تقنيات الذكاء الاصطناعى وتشجع تطويرها وتشجعيها بشكل كبير مثل مارك زوكربيرج الذى طورت شركته العديد من أنظمة الذكاء الاصطناعى، التى تسهل على العالم استخدام فيس بوك، بالإضافة إلى محاربة الانتحار، والإرهاب. ولكن على الجانب الآخر هناك شخصيات رفضت تلك التقنية بشكل كبير، فسبق وحذر عالم الفيزياء البريطانى "ستيفن هوكينج" من الذكاء الاصطناعى، وقال إنه من المرجح جدا أن "يحل محل البشر تماما" خلال سنوات قليلة من الآن، وأوضح أن التنمية البشرية للروبوتات وأجهزة الكمبيوتر ستصل فى نهاية المطاف إلى ظهور شكل جديد من أشكال الحياة التى تتفوق فيها الآلة على البشر. كما قال "ايلون موسك" المدير التنفيذى لشركة تسلا، إن الذكاء الاصطناعى سيهدد أرواح البشر فى المستقبل و فرصة حماية البشر وضمان أمنهم من هذه الأنظمة فائقة الذكاء ضعيفة جدا، ولم يقتصر الأمر على العاملين فى مجال التكنولوجيا فقط، بل إن السياسيين أيضا لهم وجهة نظر فى تلك التقنية، إذ تحدثت المرشحة الرئاسية السابقة "هيلارى كلينتون" عن مخاطر الذكاء الاصطناعى خلال مقابلة إذاعية تم إجراؤها فى وقت سابق من العام الجارى.
Reviewer's Comment
تناول جيد لموضوع ذو خلفية علمية في شكل تقريري مبسط للقارئ العادي
Journalist's Comment
No Comment
Our detailed review
Does the author refer to the source when quoting or paraphrasing?
لم يشر المحرر إلى المصدر في حالة النقل أو الاقتباس
اليوم السابع
Does the author differentiate between his\her own comments and the presented news?
خلط بين الرأي والمحتوى
Does the author refer to the source of the images used in the article clearly?
لم ينسب الصور لمصدرها
Did the editor refer to the sources of the information used in the article?
لم يذكر مصادر المعلومات
Resource Links
The article was copied from Innfrad 2017-11-28 18:36:39 View original article
Rating and Reviews
Single opinion
Human Rights
Accurate
81%
Credibility
Single opinion
81%
Professionalism
Misappropriated Image
81%
Want accurate news and updates?
Sign up for our newsletter to stay up on top of everyday news.
We care about the protection of your data. Read our Privacy Policy
//in your blade template