دیوار کوچک پلتفرم ها در ایران: آیا مدیران تجاری مسئول محتوای کاربران هستند؟

[ad_1]

صدور حکم حبس برای مدیر دیوار در هفته گذشته جنجال زیادی را به راه انداخت. بر خلاف آنچه اکنون در سایر نقاط جهان اتفاق می افتد، مسئول دانستن مدیر عامل یک پلتفرم برای محتوا موضوعی است که بسیاری از کارآفرینان را دلسرد کرده است. در ادامه با توجه به اینکه رویکرد دولت و قوه قضائیه در تریبون ها در یکی دو سال اخیر به همراه فشار افکار عمومی تغییر کرده است، به نظر می رسد دلیل چنین تصمیمی را باید در جای دیگری جستجو کرد.

روابط عمومی دیوار اوایل هفته جاری با انتشار بیانیه ای از تایید حکم قطعی حبس برای مدیرعامل این پلتفرم خبر داد. این اتهام همچنین شامل «فساد از طریق جذب روسپی ها و تهیه وسایل فحشا» بود. البته این اولین باری نیست که صاحب پلتفرم اینترنتی در ایران محکوم می شود و احتمالا آخرین بار هم نخواهد بود. مواردی از جمله توهین مدیرعامل آپارات به دلیل انتشار فیلم توسط سازندگان محتوا یا درگیری مدیرعامل «گپ» با موارد قانونی به دلیل تقصیر کاربر این پیام رسان ها

در حالی که در دنیا مسئولیت محتوا ابتدا بر عهده کاربر و سپس شخصیت حقوقی پلتفرم است، در ایران همچنان بر سر بدیهی ترین مسائل اختلاف نظر وجود دارد. این موضوع باعث ایجاد سرخوردگی و سرخوردگی برای کارآفرینانی شده است که در سال های اخیر با راه اندازی بسترهای مختلف به اشتغال کشور کمک کرده اند.

پرونده اخیر مدیرعامل دیوار سوالات زیادی را در ذهن مردم ایجاد کرده است. قوانین سایر کشورهای جهان در مورد این مسائل چه می گوید؟ آیا تا به حال در دنیا اتفاق افتاده است که مدیر عامل یک پلتفرم به دلیل محتوای آپلود شده توسط کاربرانش زندانی شود؟ و قوانین کشور چگونه می تواند به استارتاپ ها و صاحبان پلت فرم کمک کند؟

حقوق بین الملل چیست؟

اکثر کشورهای جهان با نامگذاری این پلت فرم های خدمات دیجیتال به عنوان رابط کاربری و خدمات میزبانی، مسئولیتی در قبال محتوای بارگذاری شده توسط کاربران خود ندارند. اما طبق قانون، این پلتفرم باید با سازمان های دولتی همکاری کند و محتوای غیرقانونی را حذف کند.

رضا ایازی، پژوهشگر حقوقی فناوری اطلاعات به دیجیاتو گفت: در اتحادیه اروپا سندی در زمینه تجارت الکترونیک در سال 2000 تصویب شد و پلتفرم‌ها بر این اساس رسیدگی می‌شوند.

به گفته وی، محتوای مجرمانه در اتحادیه اروپا شامل موضوعاتی مانند مالکیت معنوی، محتوای غیراخلاقی کودکان، تروریسم و ​​تبعیض نژادی است. طبق سند موجود، تا زمانی که پلتفرم استانداردهای لازم را اجرا کند، مسئولیتی در قبال محتوای کاربران خود ندارد و نقشی در ارتکاب جرم ندارد.

این محقق در ادامه به دیجیاتو گفت که دو سال پیش پیشنهادی در این زمینه ارائه شد که توسط برخی کشورها مانند آلمان برای این پلتفرم اجباری شده است. انجمن طبق پیشنهاد باید سه مرحله بعد از تخلف انجام دهد. وی در این خصوص توضیح داد:

“اگر مطالب مجرمانه است، باید بررسی و نظارت شود که این مطالب منتشر نشده باشد و در نهایت اطمینان حاصل شود که این محتوا به هیچ وجه توسط شخص دیگری در پلتفرم آنها بازنشر نشده است.”

پلتفرم ها در اکثر کشورهای دنیا باید از هوش مصنوعی، استفاده از کاربران انسانی و … استفاده کنند تا احتمال وقوع جرم کاهش یابد، چرا که وزارت راه با نصب نرده و دادن علائم هشدار دهنده تصادف، مسئولیت ساخت جاده ها را بر عهده دارد.

بررسی قوانین ایالات متحده نشان می دهد که وضعیت مشابه است. متن «ماده 230» قانون شئونات ارتباطات بسیار واضح، ساده و مختصر است: “هیچ ارائه دهنده یا کاربر تعاملی خدمات رایانه ای نباید به عنوان ناشر یا گوینده اطلاعات ارائه شده توسط هر ارائه دهنده محتوای دیگری تلقی شود.” این قانون به طور کلی از ارائه دهندگان خدمات آنلاین در برابر مسئولیت قانونی ناشی از محتوای تولید شده توسط کاربر محافظت می کند.

ایوان لین، پژوهشگر حوزه حقوق و جامعه معتقد است که طبق بند 230 صحنه مانند خیابانی است که مردم می توانند آزادانه در آن صحبت کنند و شهرداری در قبال آنچه در خیابان گفته می شود مسئولیتی ندارد. بنابراین، در سایه حمایت از این قانون، پلتفرم هایی مانند فیس بوک و یوتیوب و مدیران آن هرگز تحت پیگرد قانونی قرار نگرفته اند. اگر نه، این پلتفرم ها در حال حاضر میلیاردها کاربر دارند از سراسر دنیا نداشتند.

در سیستم حقوقی برزیل، پلتفرم های مبادله ای موظف به بررسی محتوای شخص ثالث قبل از انتشار (برای مبارزه با سانسور) نیستند، بنابراین مسئولیتی در قبال این محتوا ندارند. با این حال، اگر پس از دریافت اخطار قضایی از مطالب و درخواست حذف آن، موضوع را نادیده بگیرند، با جریمه نقدی مواجه خواهند شد.

بررسی قوانین ژاپن در مورد پلتفرم همچنین نشان می‌دهد که مالک پلتفرم مسئولیتی ندارد، اما کاربران مسئول محتوای خود هستند. به طور کلی قوانین این کشور مشابه قوانین ایالات متحده است و این سیستم بر اساس مدل گزارش دهی مبتنی بر کاربران یا داوطلبان است.

رگولاتور رسانه بریتانیا آفکام نیز اخیراً دستورالعمل‌های جدیدی را برای پلتفرم‌های اشتراک‌گذاری ویدیو از جمله TikTok، Snapchat و Twitch صادر کرده است تا از کاربران خود در برابر محتوای مضر آنلاین محافظت کند. اگر شرکت‌ها به درستی محتوای مرتبط با تروریسم، کودک آزاری یا نژادپرستی را مورد توجه قرار ندهند، تنظیم‌کننده ارتباطات این اختیار را دارد که جریمه‌هایی تا سقف 250,000 ارون اعمال کند.

حبس کارگردان؛ کلمه منحصر به فرد جهان

شواهد از سراسر جهان نشان می دهد که در اکثر کشورهای جهان، مسئولیت کاربر به وضوح از پلتفرم جدا شده است. بررسی پرونده‌های مطرح دنیا در سال‌های اخیر نیز نشان می‌دهد که هرگاه تخلف پلتفرمی ثابت شود، هویت قانونی خود آن پلتفرم جریمه می‌شود.

به عنوان مثال، روسیه در سال های اخیر در مقابله با سکوها پیشرو بوده است. مقامات این کشور بارها به دلایل مختلف برای پلتفرم های معتبر جهانی مانند گوگل، فیس بوک و تلگرام جریمه هایی اعمال کرده اند.

نمونه آن در ژوئن سال جاری است، زمانی که فیس بوک و تلگرام به دلیل حذف نکردن محتوایی که توسط مقامات روسی غیرقانونی تلقی می شد، بیش از 250 هزار دلار جریمه شدند.

گوگل اخیرا توسط دادگاه مسکو 400 هزار دلار جریمه شده است. دلیل جریمه این است که گوگل درخواست دولت روسیه را نادیده گرفته و محتوای غیرقانونی را حذف نکرده است.

اما در سال 2019، یوتیوب درگیر پرونده مشابه دیوار شد. در آن سال، تیم متوجه شد که شبکه‌ای از پدوفیل‌ها با لایک کردن و کامنت گذاشتن در یوتیوب به یکدیگر مرتبط شده‌اند و از آن‌ها دعوت کردند تا ویدیوهای بیشتری از خود در ویدیوهای مربوط به کودکان آپلود کنند. در این ویدئوها نارضایتی از شرکت های تبلیغاتی نیز وجود داشت.

اما برای مدیران گوگل پس از شناسایی این حادثه چه اتفاقی افتاد؟ هیچکس! این مشکل تنها پس از اطلاع رسانی به YouTube برطرف شد. هم به دلیل شبکه مخفی ایجاد شده توسط کاربران، هیچ جریمه مالی یا قانونی برای این پلتفرم اعمال نشد.

آیا دیوار به پلیس اهمیت می داد؟

وال مانند سایر پلتفرم ها یک ارائه دهنده هاست است، به این معنی که پلتفرم مسئولیتی در قبال محتوای کاربر ندارد. ایازی نیز در گفتگو با دیجیاتو این موضوع را تایید کرد و به مصوبه شورای عالی فضای مجازی اشاره کرد و گفت: در این مصوبه تصریح و اعلام شده که مسئولیت محتوای موجود در فضای مجازی بر عهده کاربران است و موضوع پذیرفته شده در نظام حقوقی

با این حال، بر اساس اظهارات اخیر و اخبار منتشر شده قبلی، وال در طول سال ها خود را مسئول دانسته و با نهادهای حاکم برای مبارزه با تبلیغات نامناسب همکاری کرده است. از قیمت خودرو و مسکن گرفته تا کفش و پاشنه زنانه. ایازی در این باره به دیجیاتو گفت:

پلیس فتا در سال‌های اخیر کنترل کاملی بر دیوار و سایر پلتفرم‌ها داشته است.» اگرچه قانون مشخصی برای همکاری دیوار با پلیس فتا وجود ندارد، اما این پلتفرم همیشه تبلیغاتی را که به دستگاه‌های حاکم نشان داده می‌شود حذف کرده است. برای اثبات حسن نیتش مورد تایید او قرار نگرفته است.”

وال با ارائه زیرساخت‌های مناسب مانند استفاده از هوش مصنوعی و نیروی انسانی، نگرانی‌های حاکمیتی را برطرف می‌کند و حذف 47 میلیون آگهی از این پلتفرم در هشت ماهه اول سال جاری این ادعا را ثابت می‌کند.

ایازی گفت: طی یکی دو سال گذشته به دلیل نقش غیرقابل انکار بسترها در ایجاد اشتغال و تسهیل زندگی مردم، حساسیت نسبت به آنها افزایش یافته است. از این رو دولت و قوه قضائیه همواره تلاش کرده اند که خللی در کار تریبون ها ایجاد نکنند و فقط رویه های موجود را اصلاح کنند.

خلأ قانونی در کشور، فاجعه برای استارت آپ ها

اما شاید بزرگترین مشکل، نبود قانون یکپارچه و جامع در این زمینه باشد تا از وقوع چنین تصمیماتی برای مدیران پلتفرم جلوگیری کند.

در قانون جرایم سایبری و سایر قوانین، عنوانی برای توصیف مسئولیت قانونی پلتفرم‌های انتشار محتوا وجود ندارد و قانون در این مورد کاملاً سکوت کرده است. فقط در دو مورد، مواد 19 و 21 قانون جرایم رایانه ای مصوب دهه 1980 بیان می کند که کارمند یک شخص حقوقی در صورت تخلف مسئول است و ISP ها را ملزم به اصلاح محتوا می کند. اما هیچ کدام مستقیماً به بحث تریبون اشاره نمی کنند. شاید به این دلیل که بیش از یک دهه پیش که قانونگذاری در مجلس شورای اسلامی تصویب شد، امروز چیزی به نام تریبون وجود نداشت.

ایازی در پاسخ به سوال دیجیاتو گفت: قانون خاصی در این زمینه وجود ندارد.

وی افزود: در حال حاضر تنوع طرح‌های قوانین در کشور مضر است و به دلیل عدم هماهنگی مرکز ملی فضای مجازی و کمیسیون اجتماعی و توسعه دولت الکترونیک، این طرح‌ها با یکدیگر در تضاد هستند و راه به جایی نمی‌برند.

به گفته این محقق حقوقی فناوری اطلاعات، موسسات چابکی مانند انجمن کسب و کار امنیت سایبری و سازمان انجمن صنفی رایانه ای باید با همکاری یکدیگر طرحی را برای تعیین چارچوب قانونی و پاسخگویی پلتفرم ها تهیه کنند. اینها استانداردهایی است که یک پلتفرم باید رعایت کند و ما شاهد چنین حوادثی نخواهیم بود.

محمدجعفر ناناکار کارشناس حقوق فناوری به دیجیاتو می گوید که نبود قوانین، عدم استفاده از قوانین موجود و در نهایت تفاوت حقوقی با فناوری و درک ضعیف از فناوری، زنجیره ای را ایجاد کرده است که منجر به چنین تصمیماتی می شود.

به گفته وی، این زنجیره برخی مفاد قانون فناوری را دور زده است، موردی که در حکم صادره برای مدیرعامل وال نیز قابل مشاهده است.

نعناکار همچنین با اشاره به اینکه قوه قضائیه تنها مجری قوانین ارائه شده از سوی قوه مجریه است، گفت: قوه قضائیه تنها قوانینی را که برای برقراری نظم در نظم اجتماعی از نظر پاداش و مجازات تصویب می شود اجرا می کند. قطعا قوه قضاییه نیز از اعلام تصمیمات ناعادلانه ناراضی است. دلیل این تصمیمات به روز نبودن قوانین است.»

بدیهی است که مسئولیت مطالب منتشر شده در بسترهای تبادل محتوا و انتشار محتوا را نمی توان و نباید متوجه مدیران و مسئولان این بسترها کرد. از سوی دیگر، برای برخورداری از نعمت آزادی و مواهب آن، دولت و نهادهای قضایی باید مدارا داشته باشند و جامعه درجاتی از خطر را بپذیرد. در غیر این صورت بیشتر فعالیت ها باید متوقف شوند. همچنین با در نظر گرفتن نیاز بسترها و دغدغه های دولت، باید چارچوبی برای فعالان این بخش در نظر گرفته شود تا همه در کشور بتوانند از مزایای بسترها بهره مند شوند.

[ad_2]

Noe Gilbert

علاقه مندان به شبکه های اجتماعی. طرفدار الکل علاقه مند به فرهنگ پاپ مادام العمر. یک آدم فداکار قهوه

Leave a reply:

Your email address will not be published.

تماس با ما