موصى به, 2024

اختيار المحرر

الإنترنت يتحول إلى Tay ، وهو برنامج الأسبوت التابع لمنظمة العفو الدولية في عهد الألفية ، إلى متعصب عنصري

توم وجيري Øلقات كاملة 2017 الكرة توم توم وجيري بالعربي1

توم وجيري Øلقات كاملة 2017 الكرة توم توم وجيري بالعربي1
Anonim

منذ سنوات عديدة ، اكتشفت صوت جهاز الكمبيوتر المدمج في نظام التشغيل Mac والذي سيقول أي شيء تريده باستخدام بضع ضربات مفاتيح على سطر الأوامر. بالطبع ، قمت باختبار هذه الميزة على الفور بجعل جهاز الكمبيوتر الخاص بي يقسم. الحصول على جهاز كمبيوتر لقول أشياء لا ينبغي أن يكون تقليدًا عمليًا. ولهذا السبب لم يكن مفاجئًا عندما بدأ تاي ، وهو ال chatbot الألفي الذي أنشأته شركة مايكروسوفت ، بإصدار تعليقات متعصبة بالتعصب الأبيض في غضون ساعات من إطلاقه.

بدأ تاي كتجربة في الذكاء الاصطناعي صدر عن مايكروسوفت يوم الأربعاء. إنه برنامج دردشة يمكن أن تتفاعل معه على GroupMe و Kik و Twitter ، ويتعلم Tay من التفاعلات التي أجراها مع الأشخاص.

لدى bot ميلًا غريبًا لتغريد الرموز التعبيرية واستخدام "الكلام الألفي" - ولكن ذلك تحول سريعًا في hatefest مسعور. سرعان ما اكتشفت الإنترنت أنه يمكنك الحصول على العبارات لتعود إليك ، كما أفاد موقع Business Insider لأول مرة. وبمجرد أن حدث ذلك ، كانت الرقصة أعلى ، وتم اختطاف جهد صادق آخر في العلاقات العامة الجيدة. تم تعليم البوت كل شيء من تكرار كلمات gamergate البغيضة للإشارة إلى الرئيس بإعجاب هجومي عدواني.

[اقرأ المزيد: أفضل خدمات البث التلفزيوني]

لقد حذفت شركة Microsoft منذ ذلك الحين أكثر تعليقات تاي الهجومية ، لكننا استطعنا للعثور على مثال واحد في ذاكرة التخزين المؤقت لـ Google التي تربط هتلر بالالحاد. حتى كتابة هذه السطور ، فإن Tay غير متصل في الوقت الذي تعمل فيه Microsoft على إصلاح المشكلة.

"The AI ​​chatbot Tay هو مشروع تعلم آلي ، مصمم للمشاركة البشرية" ، حسبما قالت مايكروسوفت في بيان عبر البريد الإلكتروني إلى PCWorld صباح يوم الخميس. "إنها تجربة اجتماعية وثقافية بقدر ما هي تقنية. لسوء الحظ ، خلال الساعات الأربع والعشرين الأولى من دخولنا على الإنترنت ، أصبحنا ندرك جهداً منسقاً من قبل بعض المستخدمين لإساءة استخدام مهارات تعليق تاي كي يجيب تاي بطرق غير مناسبة. نتيجة لذلك ، اتخذنا تاي غير متصل ونقوم بإجراء تعديلات. "

لماذا هذا مهم: يبدو أن شركة ميكروسوفت قد نسيت أن تمكّن من الدردشة مع بعض مرشحات اللغة الرئيسية. كانت عام 2007 أو عام 2010 ، ولكن هذا الشريط الحدودي غير مسؤول في عام 2016. الآن ، يجب أن يكون واضحا أن شبكة الإنترنت لديها الجانب المظلم المسعور الذي يمكن أن يدفع الناس من منازلهم أو إرسال فريق SWAT إلى منزلك ، كما أشار المطور لعبة زوي كوين على Twitter بعد كارثة تاي ، "إذا كنت لا تسأل نفسك" كيف يمكن استخدام هذا لإيذاء شخص ما في عملية التصميم / الهندسة لديك ، فقد فشلت. "

تم تحديث هذه القصة في الساعة 10:07 صباحًا مع تعليق من Microsoft.

Top