فیس بوک می خواهد ماشین ها دنیا را از چشم ما ببینند

[ad_1]

در دو سال گذشته ، Facebook AI Research (FAIR) با 13 دانشگاه در سراسر جهان همکاری کرده است تا بزرگترین مجموعه داده های ویدئوهای اول شخص را جمع آوری کند-به طور خاص مدل های تشخیص تصویر با یادگیری عمیق آموزش دیده است. هوش مصنوعی آموزش داده شده بر روی مجموعه داده ها بهتر می تواند روبات های تعامل با مردم را کنترل کند یا تصاویر را از عینک های هوشمند تفسیر کند. کریستن گرومن در نمایشگاه FAIR ، که این پروژه را رهبری می کند ، می گوید: “ماشین ها قادر خواهند بود در زندگی روزمره ما به ما کمک کنند.”

نوشته دیگر: سوارز: رفتار کومان زشت بود ، از گل زدن خوشحال نبود

چنین فناوری می تواند از افرادی که در خانه به کمک احتیاج دارند پشتیبانی کند ، یا افرادی را در کارهایی که یاد می گیرند انجام دهند راهنمایی کند. مایکل رو ، محقق بینایی رایانه ای در Google Brain و دانشگاه استونی بروک در نیویورک ، که در Ego4D مشارکت ندارد ، می گوید: “فیلم موجود در این مجموعه داده ها بسیار نزدیک به نحوه نگاه انسان ها به جهان است.”

اما سوء استفاده های احتمالی روشن و نگران کننده است. این تحقیق توسط فیس بوک تأمین می شود ، غول رسانه های اجتماعی که اخیراً در مجلس سنای آمریکا متهم به سودآوری برای رفاه مردم شده است-همانطور که توسط تحقیقات خود توسط MIT Technology Review تأیید شده است.

مدل کسب و کار فیس بوک و دیگر شرکت های بزرگ فناوری این است که تا آنجا که ممکن است داده های رفتارهای آنلاین مردم را بدزدند و به تبلیغ کنندگان بفروشند. هوش مصنوعی که در این پروژه بیان شده است می تواند به رفتارهای آفلاین روزانه افراد نیز برسد و نشان دهد که در خانه شما از چه وسایلی استفاده می کنید ، از چه فعالیتهایی لذت می برید ، با چه کسانی وقت می گذرانید و حتی بیشتر. از اطلاعات شخصی

گرومن می گوید: “حریم خصوصی باید کار شود زیرا شما آن را از دنیای تحقیقات اکتشافی خارج می کنید و چیزی شبیه به این یک محصول است.” “این اثر همچنین ممکن است از این پروژه الهام گرفته باشد.”

فیس بوک

بزرگترین مجموعه داده قبلی ویدئوی اول شخص شامل 100 ساعت فیلم افراد در آشپزخانه است. مجموعه داده های Ego4D شامل 3025 ساعت فیلم توسط 855 نفر در 73 مکان مختلف در 9 کشور (ایالات متحده ، انگلستان ، هند ، ژاپن ، ایتالیا ، سنگاپور ، عربستان سعودی ، کلمبیا و رواندا) است.

سن شرکت کنندگان و پیشینه های مختلف بود. برخی برای حرفه های بصری جالب خود مانند نانوایان ، مکانیک ، نجار و زمین داران به کار گرفته شدند.

مجموعه داده های قبلی معمولاً شامل کلیپ های ویدئویی نیمه اسکریپت شده فقط چند ثانیه بود. در Ego4D ، شرکت کنندگان به طور همزمان 10 ساعت از دوربین استفاده می کردند و فیلم اول شخص از فعالیت های روزانه بدون نسخه ، از جمله قدم زدن در خیابان ، خواندن ، شستن لباس ها ، خرید ، بازی با حیوانات خانگی ، بازی روی میز و تعامل با آنها را ضبط می کردند. دیگران. برخی از فیلم ها همچنین شامل صدا ، اطلاعات مربوط به محل تمرکز چشم شرکت کنندگان و دیدگاه های متعدد در یک صحنه بود. ریو می گوید این اولین مجموعه داده در نوع خود است.

[ad_2]

Gabriel Osborne

شیطان متعصب توییتر. حشره پرشور اینترنت. مبشر وب. ماون آبجو. پیشگام موسیقی.

تماس با ما