متن سخنرانی دکتر افشین فرهانچی،پزشک و دبیر کل "حزب اراده ملت ایران" در سمینار هوش مصنوعی در سلامت؛ ملاحظات علوم انسانی سلامت
“فناوری بیاخلاق، شمشیری است در دست کودک نابالغ”
اندیشه
بزرگنمایی:
روز جمعه ۱۲ اردیبهشت به مناسبت روز استاد و معلم، سمیناری یک روزه به مدیریت نظام پزشکی همدان و همکاری دانشگاه علوم پزشکی همدان در موضوع هوش مصنوعی در سلامت برگزار گردید. در این همایش یک روزه پانصد نفر از اساتید و پزشکان همراه با داروسازان و دندانپزشکان حضور یافتند تا اطلاعات خویش در باب هوش مصنوعی و مسائل مرتبط با آن را در حوزه سلامت به روز نمایند.
دبیر علمی این برنامه دکتر طالب خداویسی دانشآموخته مدیریت اطلاعات سلامت بودند. در این برنامه سه نفر از اساتید به سخنرانی پرداختند: دکتر بهروز کارخانهای ریاست دانشگاه و دانشآموخته رشته بیهوشی و اخلاق پزشکی، دکتر حمیدرضا نمازی رییس موزه تاریخ پزشکی کشور و دانشآموخته فلسفه، طب و اخلاق پزشکی، دکتر افشین فرهانچی دانشآموخته رشته بیهوشی، مراقبتهای ویژه و اخلاق حرفهای.
نوشتار پیش رو، متن مکتوب ارائه سخنرانی دکتر افشین فرهانچی، دبیر کل حزب اراده ملت ایران در این همایش است.
افشین فرهانچی
ملاحظات اخلاقی مرتبط با هوش مصنوعی در حوزه سلامت و پزشکی: چالشها، رویکردها و چشمانداز آینده
هوش مصنوعی (AI) به سرعت در حال تغییر حوزههای مختلف زندگی بشر است و یکی از مهمترین و حساسترین حوزهها، حوزهی سلامت و پزشکی است. از تشخیص بیماریها گرفته تا درمانهای شخصیشده و پیشبینیهای پزشکی، هوش مصنوعی در حال ورود به بسیاری از جنبههای مراقبتهای بهداشتی است. با این حال، استفاده از این فناوری در پزشکی پرسشهای اخلاقی متعددی را مطرح میکند. آیا ما میتوانیم به ماشینها در مورد سلامت انسانها اعتماد کنیم؟ چگونه میتوانیم اطمینان حاصل کنیم که تصمیمات هوش مصنوعی به نفع بیماران است؟ چه میزان نظارت انسانی باید در کنار هوش مصنوعی وجود داشته باشد؟ در این سخنرانی، به بررسی ملاحظات اخلاقی پیرامون استفاده از هوش مصنوعی در پزشکی پرداخته خواهد شد و چالشها و چشماندازهای آن در آینده مورد بررسی قرار خواهد گرفت.
مقدمه: نگاهی به ورود هوش مصنوعی به ایران
ورود اکثر تکنولوژیها در قرن حاضر به ایران داستانی دارد. در این داستانها برجستهترین نکته این است که ما بعلت جداافتادگی تاریخی از جامعه جهانی پیشرو، همواره با مسائل و مشکلاتی روبرو شدهایم که در دراز مدت طبعات و مصائبی را برای ما بدنبال داشته است. نمونه بارز و برجسته آن ورود صنعت خودروسازی به ایران بوده است که بدون ایجاد زیرساختهای لازم در زمینه حملونقل عمومی که از یک سده پیش در دنیا شکل گرفته بود، به یکباره ما را با دنیای ماشینهای شخصی روبرو کرد و عملا باعث شد که بر خلاف اکثریت کشورهای جهان، خصوصا اروپا، نتوانیم یک سیستم ترابری مردمی و مبتنی بر حملونقل عمومی داشته باشیم و عملا در دنیای اتومبیلهای شخصی و سفرهای شخصی غرق شدیم. تکنولوژی هوش مصنوعی نیز از این قاعده مستثنی نیست و اگر نتوانیم با سرعت مناسب و هوشمندی آنرا در زیرساختهای فعلی ادغام نمائیم، حتی در صورت موفقیت ظاهری هم، کمکی به ارتقا وضعیت فعلی کشور ما در حوزه توسعه نمیکند.
بخش اول: چیستی هوش مصنوعی و کاربردهای آن در پزشکی
هوش مصنوعی در پزشکی به الگوریتمها و سیستمهایی اطلاق میشود که از دادههای پزشکی برای تشخیص بیماریها، پیشبینی نتایج درمانی، ارائه مشاورههای بالینی، و حتی هدایت جراحیها استفاده میکنند.
برخی از کاربردهای هوش مصنوعی در پزشکی:
• تشخیص بیماریها: از جمله تشخیص سرطان، بیماریهای قلبی، و بیماریهای عصبی.
• پزشکی شخصیشده: استفاده از دادههای ژنتیکی و سوابق پزشکی برای ارائه درمانهای اختصاصی.
• پیشبینی و پیشگیری: پیشبینی ابتلا به بیماریها بر اساس دادههای بیومتریک و تاریخچهی پزشکی.
• روباتیک پزشکی: رباتهای جراحی که میتوانند عملهای جراحی را با دقت بالاتر انجام دهند.
بخش دوم: ملاحظات اخلاقی در کاربرد هوش مصنوعی در پزشکی
1. مسئولیت اخلاقی (Moral Responsibility)
یکی از بزرگترین دغدغههای اخلاقی در هوش مصنوعی در پزشکی، مسئولیت در برابر خطاها است. اگر یک سیستم هوش مصنوعی خطایی کند (مثلاً تشخیص نادرست سرطان یا تجویز داروی اشتباه)، مسئولیت بر عهده کیست؟
در سال 2019، یک الگوریتم هوش مصنوعی در تشخیص سرطان ریه در مقایسه با پزشکان انسانی عملکرد بهتری نشان داد، اما در برخی موارد نادر، خطاهایی داشت که باعث تشخیصهای نادرست شد. در چنین شرایطی، مسئله مسئولیت و نظارت انسان مطرح میشود.
2. عدالت و تبعیض (Fairness & Bias)
الگوریتمهای هوش مصنوعی ممکن است با دادههای نادرست یا نابرابر آموزش ببینند که منجر به تبعیض در تشخیصها و درمانها میشود. مثال: یک سیستم تشخیص بیماریهای قلبی که عمدتاً با دادههای مردانه آموزش دیده است، ممکن است مردان را به درستی تشخیص دهد، اما نتایج دقیقی برای زنان نداشته باشد. این به دلیل سوگیری جنسیتی در دادهها است.
به عنوان مثال، در یک مطالعه در سال 2020، محققان دریافتند که الگوریتمهای پزشکی در پیشبینی بیماریهای قلبی بیشتر برای مردان دقیق بوده و دقت کمتری در تشخیص برای زنان داشتند.
3. شفافیت و توضیحپذیری (Transparency & Explainability)
الگوریتمهای یادگیری عمیق (Deep Learning) در پزشکی ممکن است شبیه جعبههای سیاه باشند که توضیح دهندگی کمی دارند. برای مثال، در صورت استفاده از یک سیستم هوش مصنوعی برای انتخاب روش درمانی برای بیماران، چگونه میتوان توضیح داد که چرا این روش انتخاب شده است؟ بیمار یا حتی پزشک ممکن است از الگوریتم بپرسد چرا یک درمان خاص انتخاب شده است و در بسیاری از مواقع، هوش مصنوعی قادر به ارائه توضیحات شفاف نیست.
4. حریم خصوصی و امنیت دادهها (Privacy & Data Security)
در پزشکی، هوش مصنوعی نیاز به دسترسی به دادههای حساس بیماران دارد، مانند سوابق پزشکی، نتایج آزمایشها، و حتی اطلاعات ژنتیکی. آیا این دادهها باید به طور کامل حفظ شوند؟ آیا بیماران حق دارند بدانند که دادههایشان چگونه استفاده میشوند؟
در سال 2018، شرکت گوگل بهطور غیرقانونی اطلاعات پزشکی میلیونها بیمار را بدون اطلاع آنان جمعآوری کرد که باعث نگرانیهای گسترده در زمینه حریم خصوصی شد.
5. کنترل انسانی و اختیار (Human Agency)
در سیستمهای پزشکی مبتنی بر هوش مصنوعی، کنترل انسانی به ویژه در تصمیمات بالینی همچنان ضروری است. آیا باید انسانها در نهایت تصمیمگیرندگان باشند یا هوش مصنوعی باید قدرت تصمیمگیری کامل را داشته باشد؟ در مورد رباتهای جراح، همچنان سوالاتی در مورد نظارت انسانی و صلاحیت جراحها برای استفاده از این تکنولوژی مطرح است.
بخش سوم: رویکردهای نظری به اخلاق در هوش مصنوعی پزشکی
اخلاق وظیفهگرا (Deontological Ethics)
این رویکرد بر رعایت قوانین و وظایف اخلاقی تأکید دارد. برای مثال، یک ربات جراح باید تحت هیچ شرایطی به بیمار آسیب نرساند، حتی اگر نتیجهی بهتری برای اکثریت بیماران فراهم کند.
اخلاق پیامدگرا (Utilitarian Ethics)
این رویکرد بر بیشینهسازی منافع برای بیشترین افراد تأکید دارد. در مورد هوش مصنوعی پزشکی، اگر یک سیستم هوش مصنوعی تصمیمی بگیرد که برای بیشترین تعداد بیماران به نفع باشد، اما به بعضی از بیماران آسیب برساند، این تصمیم ممکن است بر اساس اصول اخلاقی پیامدگرایانه توجیه شود.
اخلاق فضیلتمحور (Virtue Ethics)
این رویکرد بر تربیت فضائل اخلاقی در انسانها و ماشینها تأکید دارد. در پزشکی، آیا ممکن است ماشینها بتوانند فضائل انسانی مانند همدلی یا شفقت را در تصمیمات خود لحاظ کنند؟
بخش چهارم: مثالها و چالشهای اخلاقی در هوش مصنوعی پزشکی
1. سیستمهای تشخیص بیماری سرطان
هوش مصنوعی به طور فزایندهای در تشخیص سرطانها از طریق تحلیل تصاویر پزشکی، مانند ماموگرافیها و سیتیاسکنها، مورد استفاده قرار میگیرد. اما چالش اخلاقی این است که آیا میتوانیم به طور کامل به هوش مصنوعی برای تشخیص درست و سریع بیماریها اعتماد کنیم؟
در سال 2018، مطالعهای نشان داد که یک سیستم هوش مصنوعی توانست در تشخیص سرطان پوست از پزشکان انسانی دقیقتر عمل کند. اما سوال این است که چگونه این سیستمها آموزش داده میشوند و چه تضمینی برای دقت آنها وجود دارد؟
2. روباتهای جراح و تصمیمات جراحی
روباتهای جراحی مانند دائو داوینچی که در حال حاضر در برخی بیمارستانها استفاده میشوند، میتوانند جراحیهای پیچیدهای را با دقت بالا انجام دهند. اما چالش اخلاقی این است که در صورتی که ربات جراح خطا کند، مسئولیت آن با کیست؟
به عنوان مثال، یک جراح ممکن است در حین استفاده از ربات جراح تصمیمی بگیرد که خطرات بیشتری برای بیمار داشته باشد. در این صورت، نظارت انسانی و مسئولیتپذیری جراح در استفاده از این ابزارها حیاتی است.
هوش مصنوعی در پزشکی، با تمامی پتانسیلهای خود برای بهبود تشخیص، درمان، و پیشگیری بیماریها، چالشهای اخلاقی قابل توجهی را نیز به همراه دارد. مسئولیت اخلاقی، عدالت، حریم خصوصی، شفافیت و نظارت انسانی از جمله دغدغههای اصلی در این زمینه هستند. برای بهرهمندی از فواید هوش مصنوعی در پزشکی، ضروری است که با دقت به ملاحظات اخلاقی پرداخته شود و همزمان حقوق و کرامت انسانها حفظ گردد.
"هر پیشرفتی که در فناوری ایجاد میشود، باید در خدمت
انسان باشد و نه بر ضد آن."
بخشی از این سخنرانی بر اساس منبع زیر است:
اخلاق در هوش مصنوعی نوشته برند کارستناستال، دوریس شرودر، رووینا رادریگس با ترجمه فرزام حبیبی – نشر آریابان - سال 1403 - صفحه 170
حزب اراده ملت ایران , حاما , افشین فرهانچی , احمد حکیمی پور , سوسیال دموکراسی , اصلاحات , اصلاح طلب , حسین اکبری بیرق , رحیم حمزه , پیام فیض , مسعود خادمی , زهره رحیمی