[ad_1]
ظهور ویروس کرونا راه را برای تلاشهای بیشماری از اقدامات قهرمانانه فردی تا پیشرفتهای علمی حیرتانگیز هموار کرده است. شرکت های داروسازی در زمان های بی سابقه ای از فناوری های جدید برای تولید واکسن های موثر استفاده کرده اند. کارآزماییهای بالینی جدید درک جهان را از ممکن و غیرممکن در مبارزه با COVID-19 تغییر داده است. اکنون موسسه آلن تورینگ بریتانیا گزارشی از تاثیر هوش مصنوعی بر این بحران منتشر کرده است که چندان امیدوارکننده نیست.
بر اساس گزارش موسسه تورینگ که در سال گذشته منتشر شد، هوش مصنوعی تأثیر کمی بر جهانی شدن داشته است و کارشناسان با مشکلات گسترده ای در ارزیابی داده های سلامت و استفاده از این فناوری بدون واگرایی مواجه هستند. این گزارش بر اساس مطالعات موردی بیش از 100 مطالعه است. بر اساس این مطالعات، تقریباً تمام ابزارهای هوش مصنوعی برای تشخیص علائم کووید ۱۹ نقص داشتند. بلال متین، پزشک و محقق و سردبیر تورینگ ریپورت می گوید:
هدف ما تاکید بر نقاط روشن نشان دهنده نتایج این تکنیک بود. متأسفانه ما این نقاط روشن را پیدا نکردیم و در عوض چندین مشکل پیدا کردیم.
قابل درک است که یک ابزار نسبتاً جدید در مراقبت های بهداشتی، مانند هوش مصنوعی، به تنهایی نمی تواند راه حلی ارائه دهد. علیرغم انتظارات بسیار قوی، بهبود سلامت تنها از طریق داده های الگوریتمی قابل اثبات است.
بسیاری از مطالعات از نمونه هایی از داده های پزشکی گذشته استفاده می کنند. بر اساس این گزارشها، الگوریتمها در انجام وظایف خاص مانند تشخیص سرطان پوست یا پیشبینی نتایج بیمار بسیار دقیق هستند. برخی از مطالعات همچنین از محصولات اثبات شده ای استفاده می کنند که پزشکان برای نظارت بر علائم سکته مغزی یا بیماری چشم استفاده می کنند.
بسیاری از ایده های هوش مصنوعی برای مراقبت های بهداشتی فراتر از شواهد اولیه نیستند. محققان همچنین هشدار می دهند که بسیاری از مطالعات از داده های کافی یا با کیفیت بالا برای آزمایش درست برنامه های هوش مصنوعی استفاده نمی کنند. بنابراین، خطر آسیب ناشی از فناوری های غیرقابل اعتماد افزایش می یابد. برخی از الگوریتمهای سلامت برای گروههای آماری خاص غیرقابل اعتماد یا حتی حواسپرتی هستند.
فشرده سازی داده ها دستاورد جدیدی در بهبود مراقبت های بهداشتی نیست. این روش برای اپیدمیولوژی در سال 1855 معرفی شد. در آن زمان یک پزشک لندنی به نام جان اسنو نمونه های خاصی از وبا را روی نقشه نشان داد تا ثابت کند که این بیماری در آب است. اخیراً، پزشکان، محققان و متخصصان فناوری به تکنیک های یادگیری ماشینی در پروژه های صنعتی مانند مرتب سازی تصویر یا تبدیل گفتار به متن علاقه مند شده اند.
با این حال، وضعیت شرکت های فناوری با بیمارستان ها متفاوت است. شرکت هایی مانند فیس بوک می توانند به میلیاردها پست کاربر برای بهبود الگوریتم های تشخیص تصویر دسترسی داشته باشند. اما دسترسی به داده های سلامت به دلیل نگرانی های مربوط به حریم خصوصی و سیستم های IT معیوب دشوار است. همچنین، توسعه الگوریتمی که میتواند وضعیت سلامتی افراد را تعیین کند، ریسک بالایی برای فیلتر کردن هرزنامه یا تبلیغات هدفمند دارد. ویسار بریشا، استادیار دانشگاه ایسانا، می گوید:
نمیتوانیم وارد حوزه الگوهای توسعه پزشکی دستگاههای هوش مصنوعی شویم که در فضاهای کاربری غالب بودهاند.
بریشا اخیراً مقاله ای را با همکارانش در دپارتمان پزشکی و مهندسی در دانشگاه آریزونا نوشته است که نشان می دهد چندین مطالعه سلامت هوش مصنوعی نشان می دهد که الگوریتم ها دقیق تر از آنچه هستند هستند. زیرا آنها از الگوریتم های قوی در مجموعه داده های کوچک استفاده می کنند.
این به این دلیل است که دادههای سلامتی مانند پردازش تصویر پزشکی، علائم حیاتی و دادههای دستگاه پوشیدنی متناسب با سایر عوامل مانند سبک زندگی یا نویز پسزمینه تغییر میکنند. الگوریتم های یادگیری ماشین که در دنیای فناوری بسیار محبوب شده اند، در یافتن الگوها موفق بوده اند. تا بتوانند میانبرهایی برای پاسخ های صحیح پیدا کنند. مجموعه دادههای کوچک، انجام تقلب الگوریتمی و نقاط کور را که منجر به نتایج بالینی ضعیف میشود، آسان میکند. بریشا می گوید:
این امر جامعه را فریب می دهد تا تصور کند که ما در حال توسعه مدل های عملکرد بهتر هستیم.
به گفته بریشا، این مشکل می تواند منجر به الگوهای نگران کننده در برخی از تحقیقات هوش مصنوعی شود. بریشا و همکارانش پس از بررسی تحقیقاتی که از الگوریتمهایی برای تشخیص علائم آلزایمر یا اختلالات شناختی در گفتار استفاده میکردند، دریافتند که مطالعات بزرگتر نسبت به مطالعات کوچکتر دقت کمتری دارند. بررسی تحقیقاتی که برای شناسایی اختلالات مغزی بر اساس اسکنهای پزشکی یا تحقیقاتی که در مورد تشخیص اوتیسم با یادگیری ماشینی انجام میشود، الگوی مشابهی را نشان داده است.
برخی از الگوریتم ها در آزمایش اولیه عملکرد خوبی دارند. اما آنها بر روی داده های واقعی بیمار متفاوت عمل می کنند و این خطر را نمی توان نادیده گرفت. طبق یک مطالعه در سال 2019، یک سیستم از میلیونها بیمار برای اولویتبندی دسترسی به درمان استفاده کرد و به بیماران سفیدپوست اولویت بیشتری نسبت به بیماران سیاهپوست داد.
ما به مجموعه داده های متعادل و آزمایش های دقیق نیاز داریم تا از حواس پرتی سیستم ها جلوگیری کنیم. با این حال، وجود داده های متفاوت در تحقیقات هوش مصنوعی سلامت به دلیل ادامه نابرابری ها رایج است. طبق یک مطالعه در سال 2020، محققان دانشگاه استنفورد 71 درصد از داده های مورد استفاده در تحقیقات یادگیری عمیق را از کالیفرنیا، ماساچوست یا نیویورک به دست آوردند. 47 ایالت دیگر آمار کمی داشتند یا اصلاً آمار نداشتند. کشورهای کم درآمد به ندرت در مطالعات هوش مصنوعی شرکت می کنند. طبق مطالعهای که سال گذشته منتشر شد، اکثر 150 مطالعه در مورد کاربرد یادگیری ماشینی در پیشبینی تشخیص یا مدت بیماری کیفیت روششناختی ضعیفی داشتند و در معرض خطر واگرایی بالایی قرار داشتند.
این دو محقق سازمان غیرانتفاعی Nightingale Open Sense را تأسیس کردند تا برای بهبود کیفیت و مقیاس مجموعه دادههای موجود برای محققان تلاش کنند. این شرکت با سیستم های مراقبت های بهداشتی کار می کند تا تصاویر و داده های پزشکی را از سوابق بیماران جمع آوری کند تا داده ها را تجزیه و تحلیل کند و سپس داده ها را برای تحقیقات غیرانتفاعی در دسترس قرار دهد.
Nightingale، یکی از بنیانگذاران و استادیار دانشگاه کالیفرنیا، برکلی، زیاد اوبرمیر، امیدوار است با فراهم کردن دسترسی به داده ها به طوری که مجموعه های بزرگ و باز از تصاویر می تواند به پیشرفت یادگیری ماشین کمک کند، مشارکت را افزایش دهد و به نتایج بهتری دست یابد. او می گوید:
هسته اصلی مشکل این است که محقق می تواند با داده های بهداشتی هر کاری که می خواهد انجام دهد. زیرا هیچ کس نمی تواند نتیجه را بررسی کند.
نایتینگل روی پروژه های دیگری برای بهبود سلامت هوش مصنوعی و افزایش دسترسی و کیفیت داده ها کار می کند. صندوق لاکونا از ایجاد مجموعه یادگیری ماشینی در کشورهای با درآمد متوسط و کم حمایت می کند و در حال کار بر روی یک سیستم مراقبت های بهداشتی است. پروژه جدید با پشتیبانی خدمات بهداشت عمومی (NHS) و MIT در بیمارستان دانشگاه بیرمنگام در بریتانیا، به دنبال توسعه استانداردهایی برای ارزیابی سیستم های هوش مصنوعی بر اساس داده های غیر سوءاستفاده کننده است.
متین، سردبیر گزارش بریتانیایی درباره الگوریتمهای الگوریتمهای جهانیسازی، از حامیان چنین پروژههای هوش مصنوعی است. اما او معتقد است که چشم انداز مراقبت های بهداشتی هوش مصنوعی به شدت به سیستم های بهداشتی وابسته است. او می گوید:
باید روی ریشه مشکل سرمایه گذاری کرد و منتظر نتیجه بود.
[ad_2]