فیس بوک امیدوار است که ابزارهای جدید تعدیل هوش مصنوعی بتوانند بیشتر با گفتار نفرت مقابله کنند


اینستاگرام همچنین گزارش داد که هجوم زیادی به بارگیری خودکار در سه ماهه آخر سال رسیده است ، که در واقع درصد نسبت به مدت مشابه قبل دو برابر شده است. “[We] آنها اکنون روشی مشابه با ما در اینستاگرام دارند که ما در فیس بوک انجام می دهیم. ” “بنابراین ما در حدود 95 درصد سرعت فعال را در هر دو سیستم عامل مشاهده می کنیم.”

البته ، مقادیر اولیه برای این ارقام به طور مداوم در حال تغییر است. وی گفت: “اطلاعات غلط COVID ، به عنوان مثال ، در سه ماهه چهارم سال 2019 وجود نداشت.” “و می تواند در مکالمه در هنگام انتخابات تغییرات زیادی ایجاد کند. بنابراین آنچه من می گویم این است که شما همیشه باید همه این شاخص ها را با هم بررسی کنید تا بزرگترین تصویر را بدست آورید. “

علاوه بر مجموعه ابزارهای موجود فیس بوک ، از جمله مدل های خودآموز نیمه کنترل شده و XLM-R ، این شرکت از یک جفت فناوری جدید رونمایی و پیاده سازی کرده است. شرفر گفت ، اولین مورد Linformer است ، “که اساساً بهینه سازی نحوه کار این مدل های بزرگ زبان است ، که به ما امکان می دهد آنها را به نوعی مستقر کنیم ، ما باید به تمام مطالب موجود در فیس بوک توجه کنیم.”

Linformer اولین معماری ترانسفورماتور در نوع خود است. ترانسفورماتورها مدل انتخاب شده برای تعدادی از برنامه های پردازش زبان طبیعی (NLP) هستند ، اما برخلاف شبکه های عصبی تکراری که قبل از آنها وجود دارد ، ترانسفورماتورها می توانند داده ها را به طور موازی پردازش کنند ، و مدل های یادگیری را سریعتر می کنند. اما پردازش موازی از نظر منابع کارآمد است و به دلیل افزایش طول ورودی ، به چرخه پردازش و حافظه بسیار بیشتری نیاز دارد. Linformer متفاوت است. نیازهای منابع و طول ورودی آن بر روی یک اتصال خطی کار می کند ، که به آن امکان می دهد ورودی های بیشتری را با استفاده از منابع کمتر نسبت به ترانسفورماتورهای معمولی پردازش کند.

فناوری جدید دیگر RIO نام دارد. شروفر گفت: “به جای مدل سنتی همه چیزهایی که من در پنج سال گذشته در مورد آنها صحبت کردم.” “یک طبقه بندی کنید ، آن را بسازید ، به صورت آفلاین آموزش دهید ، شاید آن را با برخی داده های آنلاین تست کنید و سپس در تولید پیاده سازی کنید ، ما سیستمی داریم که می توان آن را از انتها به انتهای دیگر یاد گرفت.

به طور خاص ، RIO یک چارچوب آموزش بهینه شده برای تقویت (RL) است که طبقه بندی کننده ها را ایجاد می کند – آزمونهایی که عملیاتی را برای انجام یک قطعه خاص از محتوا بر اساس کلاس مرتبط با نقطه داده آن آغاز می کنند (فرایند تعیین کننده را در نظر بگیرید آیا نامه الکترونیکی هرزنامه است) – استفاده از داده های آنلاین.

شروفر گفت: “آنچه ما معمولاً سعی در انجام آن داریم این است كه طبقه بندی كننده ها در آستانه بسیار بالایی كار كنند ، این بدان معناست كه در صورت تردید ، اقدامی انجام نمی شود” “بنابراین ما فقط زمانی اقدام می کنیم که طبقه بندی از اعتماد به نفس بالایی برخوردار باشد یا بر اساس آزمایش تجربی از درست بودن این طبقه بندی اطمینان داشته باشیم.”

این آستانه ها بسته به نوع محتوای بررسی شده به طور منظم تغییر می کنند. به عنوان مثال ، آستانه بیان نفرت در هر پست کاملاً بالا است ، زیرا این شرکت ترجیح می دهد پست هایی را که نقض نمی کنند ، به اشتباه بارگیری نکند. از طرف دیگر ، آستانه تبلیغات ناخواسته بسیار کم است.

در مثال سخنان نفرت شرود ، شاخص هایی که RIO ترسیم می کند مربوط به میزان شیوع است. شروفر گفت: “این در واقع با استفاده از برخی از معیارهای گسترش و سایر معیارهایی که در نتیجه منتشر کردیم ، و تلاش می کند این اعداد را کاهش دهد.” “این واقعاً از هدف نهایی تا پایان بازگشت بهینه شده است ، که کاملاً چیز هیجان انگیزی است.”

شروفر گفت: “اگر شما 1000 محتوا را بارگیری كنید كه به هیچ وجه كسی نمی دید. “اگر من محتوایی را که قبل از انتشار ویروسی شده بود ، بدست آورم ، می تواند تأثیر عظیم و گسترده ای داشته باشد. بنابراین من فکر می کنم انتشار هدف نهایی ما از نظر تأثیری که بر مصرف کنندگان دارد ، از نظر نحوه پیشرفت در این موارد است. “

یک برنامه فوری شناسایی خودکار کلونهای ریز تغییر یافته – اعم از افزودن متن یا حاشیه ، یا کمی تاری یا برش دادن – به تصاویر تحریف شده از قبل شناخته شده است. “چالش اینجاست که ما آستانه های بسیار بسیار بسیار بالایی داریم زیرا نمی خواهیم تصادفی چیزی را پایین بیاوریم ، می دانید ، افزودن کل” نه “یا” نه “یا” اشتباه است “در این پست معنای آن را تغییر می دهد.” او ادامه داد.

مم ها همچنان یکی از آزار دهنده ترین بردارهای سخنان نفرت انگیز و اطلاعات غلط هستند که بخشی از آن به دلیل چندشکلی بودن آنها است. به گفته شرفر ، این درک بسیار خوبی ایجاد می کند. “شما باید متن ، تصویر را درک کنید ، می توانید به وقایع فعلی مراجعه کنید و بنابراین باید بخشی از این دانش را رمزگذاری کنید. من فکر می کنم از نظر تکنولوژیکی ، این یکی از زمینه های چالش برانگیز سخنان نفرت انگیز است. “

اما همچنان که RIO به تولید طبقه بندی دقیق تر ادامه می دهد ، این امر به تیم های نظارت بر فیس بوک آزادی و فرصت بیشتری برای استفاده از دستورالعمل های جامعه می دهد. پیشرفت همچنین باید به ناظران کمک کند تا گروههای نفرت در کمین سیستم عامل را به راحتی از بین ببرند. شرففر گفت: “یکی از راه هایی که می خواهید این گروه ها را شناسایی کنید این است که گروهی از مطالب موجود در آن طبقه بندی کننده های خشونت یا نفرت ما را بشکند.” “طبقه بندی محتوا بسیار مفید است زیرا می تواند در این موارد نقش داشته باشد.”

فیس بوک نیمی از دهه گذشته را صرف توسعه سیستم های تشخیص و تعدیل خودکار کرده است ، اما مبارزه با اعتدال همچنان ادامه دارد. در اوایل سال جاری ، این شرکت یک دادخواست 11000 ناظم آسیب دیده را به مبلغ 52 میلیون دلار تسویه کرد. اوایل این هفته ، ناظران نامه ای سرگشاده به مدیریت فیس بوک صادر کردند و استدلال کردند که سیاست های این شرکت زندگی آنها را “در معرض خطر” قرار می دهد و سیستم های هوش مصنوعی که برای کاهش آسیب های روحی و روانی در محل کارشان طراحی شده اند هنوز خیلی دور.

شرفر در پایان گفت: “هدف من این است كه این فن آوری را به جلو سوق دهم ، بنابراین امیدوارم كه در برهه ای از زمان تعداد افراد صفر در جهان وجود داشته باشد كه مجبور باشند با هر یك از این مطالب كه استانداردهای جامعه ما را نقض می كند مقابله كنند.”


منبع: shose-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>