متن سخنرانی دکتر افشین فرهانچی،پزشک و دبیر کل "حزب اراده ملت ایران" در سمینار هوش مصنوعی در سلامت؛ ملاحظات علوم انسانی سلامت

“فناوری بی‌اخلاق، شمشیری است در دست کودک نابالغ” اندیشه

“فناوری بی‌اخلاق، شمشیری است در دست کودک نابالغ”

  بزرگنمایی:
روز جمعه ۱۲ اردیبهشت به مناسبت روز استاد و معلم، سمیناری یک روزه به مدیریت نظام پزشکی همدان و همکاری دانشگاه علوم پزشکی همدان در موضوع هوش مصنوعی در سلامت برگزار گردید. در این همایش یک روزه پانصد نفر از اساتید و پزشکان همراه با داروسازان و دندان‌پزشکان حضور یافتند تا اطلاعات خویش در باب هوش مصنوعی و مسائل مرتبط با آن را در حوزه سلامت به روز نمایند. دبیر علمی این برنامه دکتر طالب خداویسی دانش‌آموخته مدیریت اطلاعات سلامت بودند. در این برنامه سه نفر از اساتید به سخنرانی پرداختند: دکتر بهروز کارخانه‌ای ریاست دانشگاه و دانش‌آموخته رشته بیهوشی و اخلاق پزشکی، دکتر حمیدرضا نمازی رییس موزه تاریخ پزشکی کشور و دانش‌آموخته فلسفه، طب و اخلاق پزشکی، دکتر افشین فرهانچی دانش‌آموخته رشته بیهوشی، مراقبت‌های ویژه و اخلاق حرفه‌ای. نوشتار پیش رو، متن مکتوب ارائه سخنرانی دکتر افشین فرهانچی، دبیر کل حزب اراده ملت ایران در این همایش است.

افشین فرهانچی

ملاحظات اخلاقی مرتبط با هوش مصنوعی در حوزه سلامت و پزشکی: چالش‌ها، رویکردها و چشم‌انداز آینده
هوش مصنوعی (AI) به سرعت در حال تغییر حوزه‌های مختلف زندگی بشر است و یکی از مهم‌ترین و حساس‌ترین حوزه‌ها، حوزه‌ی سلامت و پزشکی است. از تشخیص بیماری‌ها گرفته تا درمان‌های شخصی‌شده و پیش‌بینی‌های پزشکی، هوش مصنوعی در حال ورود به بسیاری از جنبه‌های مراقبت‌های بهداشتی است. با این حال، استفاده از این فناوری در پزشکی پرسش‌های اخلاقی متعددی را مطرح می‌کند. آیا ما می‌توانیم به ماشین‌ها در مورد سلامت انسان‌ها اعتماد کنیم؟ چگونه می‌توانیم اطمینان حاصل کنیم که تصمیمات هوش مصنوعی به نفع بیماران است؟ چه میزان نظارت انسانی باید در کنار هوش مصنوعی وجود داشته باشد؟ در این سخنرانی، به بررسی ملاحظات اخلاقی پیرامون استفاده از هوش مصنوعی در پزشکی پرداخته خواهد شد و چالش‌ها و چشم‌اندازهای آن در آینده مورد بررسی قرار خواهد گرفت.

مقدمه: نگاهی به ورود هوش مصنوعی به ایران 
ورود اکثر تکنولوژی‌ها در قرن حاضر به ایران داستانی دارد. در این داستان‌ها برجسته‌ترین نکته این است که ما بعلت جداافتادگی تاریخی از جامعه جهانی پیشرو، همواره با مسائل و مشکلاتی روبرو شده‌ایم که در دراز مدت طبعات و مصائبی را برای ما بدنبال داشته است. نمونه بارز و برجسته آن ورود صنعت خودروسازی به ایران بوده است که بدون ایجاد زیرساختهای لازم در زمینه حمل‌ونقل عمومی که از یک سده پیش در دنیا شکل گرفته بود، به یکباره ما را با دنیای ماشین‌های شخصی روبرو کرد و عملا باعث شد که بر خلاف اکثریت کشورهای جهان، خصوصا اروپا، نتوانیم یک سیستم ترابری مردمی و مبتنی بر حمل‌ونقل عمومی داشته باشیم و عملا در دنیای اتومبیل‌های شخصی و سفرهای شخصی غرق شدیم. تکنولوژی هوش مصنوعی نیز از این قاعده مستثنی نیست و اگر نتوانیم با سرعت مناسب و هوشمندی آنرا در زیرساخت‌های فعلی ادغام نمائیم، حتی در صورت موفقیت ظاهری هم، کمکی به ارتقا وضعیت فعلی کشور ما در حوزه توسعه نمی‌کند.

بخش اول: چیستی هوش مصنوعی و کاربردهای آن در پزشکی
هوش مصنوعی در پزشکی به الگوریتم‌ها و سیستم‌هایی اطلاق می‌شود که از داده‌های پزشکی برای تشخیص بیماری‌ها، پیش‌بینی نتایج درمانی، ارائه مشاوره‌های بالینی، و حتی هدایت جراحی‌ها استفاده می‌کنند.
برخی از کاربردهای هوش مصنوعی در پزشکی:
• تشخیص بیماری‌ها: از جمله تشخیص سرطان، بیماری‌های قلبی، و بیماری‌های عصبی.
• پزشکی شخصی‌شده: استفاده از داده‌های ژنتیکی و سوابق پزشکی برای ارائه درمان‌های اختصاصی.
• پیش‌بینی و پیشگیری: پیش‌بینی ابتلا به بیماری‌ها بر اساس داده‌های بیومتریک و تاریخچه‌ی پزشکی.
• روباتیک پزشکی: ربات‌های جراحی که می‌توانند عمل‌های جراحی را با دقت بالاتر انجام دهند.

بخش دوم: ملاحظات اخلاقی در کاربرد هوش مصنوعی در پزشکی

1. مسئولیت اخلاقی  (Moral Responsibility)
یکی از بزرگ‌ترین دغدغه‌های اخلاقی در هوش مصنوعی در پزشکی، مسئولیت در برابر خطاها است. اگر یک سیستم هوش مصنوعی خطایی کند (مثلاً تشخیص نادرست سرطان یا تجویز داروی اشتباه)، مسئولیت بر عهده کیست؟ 
در سال 2019، یک الگوریتم هوش مصنوعی در تشخیص سرطان ریه در مقایسه با پزشکان انسانی عملکرد بهتری نشان داد، اما در برخی موارد نادر، خطاهایی داشت که باعث تشخیص‌های نادرست شد. در چنین شرایطی، مسئله مسئولیت و نظارت انسان مطرح می‌شود.
2. عدالت و تبعیض  (Fairness & Bias)
الگوریتم‌های هوش مصنوعی ممکن است با داده‌های نادرست یا نابرابر آموزش ببینند که منجر به تبعیض در تشخیص‌ها و درمان‌ها می‌شود. مثال: یک سیستم تشخیص بیماری‌های قلبی که عمدتاً با داده‌های مردانه آموزش دیده است، ممکن است مردان را به درستی تشخیص دهد، اما نتایج دقیقی برای زنان نداشته باشد. این به دلیل سوگیری جنسیتی در داده‌ها است. 
به عنوان مثال، در یک مطالعه در سال 2020، محققان دریافتند که الگوریتم‌های پزشکی در پیش‌بینی بیماری‌های قلبی بیشتر برای مردان دقیق بوده و دقت کمتری در تشخیص برای زنان داشتند.
3. شفافیت و توضیح‌پذیری  (Transparency & Explainability)
الگوریتم‌های یادگیری عمیق (Deep Learning) در پزشکی ممکن است شبیه جعبه‌های سیاه باشند که توضیح دهندگی کمی دارند. برای مثال، در صورت استفاده از یک سیستم هوش مصنوعی برای انتخاب روش درمانی برای بیماران، چگونه می‌توان توضیح داد که چرا این روش انتخاب شده است؟ بیمار یا حتی پزشک ممکن است از الگوریتم بپرسد چرا یک درمان خاص انتخاب شده است و در بسیاری از مواقع، هوش مصنوعی قادر به ارائه توضیحات شفاف نیست.
4. حریم خصوصی و امنیت داده‌ها  (Privacy & Data Security)
در پزشکی، هوش مصنوعی نیاز به دسترسی به داده‌های حساس بیماران دارد، مانند سوابق پزشکی، نتایج آزمایش‌ها، و حتی اطلاعات ژنتیکی. آیا این داده‌ها باید به طور کامل حفظ شوند؟ آیا بیماران حق دارند بدانند که داده‌هایشان چگونه استفاده می‌شوند؟ 
در سال 2018، شرکت گوگل به‌طور غیرقانونی اطلاعات پزشکی میلیون‌ها بیمار را بدون اطلاع آنان جمع‌آوری کرد که باعث نگرانی‌های گسترده در زمینه حریم خصوصی شد.
5. کنترل انسانی و اختیار  (Human Agency)
در سیستم‌های پزشکی مبتنی بر هوش مصنوعی، کنترل انسانی به ویژه در تصمیمات بالینی همچنان ضروری است. آیا باید انسان‌ها در نهایت تصمیم‌گیرندگان باشند یا هوش مصنوعی باید قدرت تصمیم‌گیری کامل را داشته باشد؟ در مورد ربات‌های جراح، همچنان سوالاتی در مورد نظارت انسانی و صلاحیت جراح‌ها برای استفاده از این تکنولوژی مطرح است.

بخش سوم: رویکردهای نظری به اخلاق در هوش مصنوعی پزشکی

اخلاق وظیفه‌گرا  (Deontological Ethics)
این رویکرد بر رعایت قوانین و وظایف اخلاقی تأکید دارد. برای مثال، یک ربات جراح باید تحت هیچ شرایطی به بیمار آسیب نرساند، حتی اگر نتیجه‌ی بهتری برای اکثریت بیماران فراهم کند.
اخلاق پیامدگرا  (Utilitarian Ethics)
این رویکرد بر بیشینه‌سازی منافع برای بیشترین افراد تأکید دارد. در مورد هوش مصنوعی پزشکی، اگر یک سیستم هوش مصنوعی تصمیمی بگیرد که برای بیشترین تعداد بیماران به نفع باشد، اما به بعضی از بیماران آسیب برساند، این تصمیم ممکن است بر اساس اصول اخلاقی پیامدگرایانه توجیه شود.
اخلاق فضیلت‌محور  (Virtue Ethics)
این رویکرد بر تربیت فضائل اخلاقی در انسان‌ها و ماشین‌ها تأکید دارد. در پزشکی، آیا ممکن است ماشین‌ها بتوانند فضائل انسانی مانند همدلی یا شفقت را در تصمیمات خود لحاظ کنند؟

بخش چهارم: مثال‌ها و چالش‌های اخلاقی در هوش مصنوعی پزشکی

1. سیستم‌های تشخیص بیماری سرطان
هوش مصنوعی به طور فزاینده‌ای در تشخیص سرطان‌ها از طریق تحلیل تصاویر پزشکی، مانند ماموگرافی‌ها و سی‌تی‌اسکن‌ها، مورد استفاده قرار می‌گیرد. اما چالش اخلاقی این است که آیا می‌توانیم به طور کامل به هوش مصنوعی برای تشخیص درست و سریع بیماری‌ها اعتماد کنیم؟ 
در سال 2018، مطالعه‌ای نشان داد که یک سیستم هوش مصنوعی توانست در تشخیص سرطان پوست از پزشکان انسانی دقیق‌تر عمل کند. اما سوال این است که چگونه این سیستم‌ها آموزش داده می‌شوند و چه تضمینی برای دقت آنها وجود دارد؟
2. روبات‌های جراح و تصمیمات جراحی
روبات‌های جراحی مانند دائو داوینچی که در حال حاضر در برخی بیمارستان‌ها استفاده می‌شوند، می‌توانند جراحی‌های پیچیده‌ای را با دقت بالا انجام دهند. اما چالش اخلاقی این است که در صورتی که ربات جراح خطا کند، مسئولیت آن با کیست؟ 
به عنوان مثال، یک جراح ممکن است در حین استفاده از ربات جراح تصمیمی بگیرد که خطرات بیشتری برای بیمار داشته باشد. در این صورت، نظارت انسانی و مسئولیت‌پذیری جراح در استفاده از این ابزارها حیاتی است.
هوش مصنوعی در پزشکی، با تمامی پتانسیل‌های خود برای بهبود تشخیص، درمان، و پیشگیری بیماری‌ها، چالش‌های اخلاقی قابل توجهی را نیز به همراه دارد. مسئولیت اخلاقی، عدالت، حریم خصوصی، شفافیت و نظارت انسانی از جمله دغدغه‌های اصلی در این زمینه هستند. برای بهره‌مندی از فواید هوش مصنوعی در پزشکی، ضروری است که با دقت به ملاحظات اخلاقی پرداخته شود و همزمان حقوق و کرامت انسان‌ها حفظ گردد.

"هر پیشرفتی که در فناوری ایجاد می‌شود، باید در خدمت
 انسان باشد و نه بر ضد آن."


بخشی از این سخنرانی بر اساس منبع زیر است:
اخلاق در هوش مصنوعی نوشته برند کارستن‌استال، دوریس شرودر، رووینا رادریگس با ترجمه فرزام حبیبی – نشر آریابان - سال 1403 - صفحه 170



نظرات شما

ارسال دیدگاه

Protected by FormShield

lastnews

ایرانِ امروز و هزینه‌های سنگین کشوری که بدون حزب اداره می‌شود

تبلیغات معکوس

ایران و غرب؛ تقابل یا مذاکره

سکوت جهانی و عدالت معلق در غزه

نقش احزاب از نگاه حاکمیت در ایران: تحلیل نظری و تاریخی

قدرتمندان جهان از ایران چه می‌خواهند؟

اساس این بانک رفاقتی بود

خطر حذف ارز ترجیحی و تبعات آن بر اقتصاد کشور

ازدواج کودک، فقر و چرخه آسیب اجتماعی

اهمیت قشر کارگر در توسعه اقتصادی و اجتماعی جوامع

انقلاب وسطی (بخش دوم)

بازخوانی ابتذال شر و عدالت ترمیمی در اندیشه هانا آرنت

رهایی از زندان نام‌ها

از بحران تا بهره‌وری؛ چگونگی استفاده از سیلاب در کشور

معرفی کتاب در اندیشه ایران

نقد و بررسی کتاب «قانون و مسئولیت»

همایش «کودک و طبیعت» در هفته ملی کودک برگزار شد

بیانیه درخصوص وضعیت نگران کننده پارک چیتگر

اکالیپتوس؛ ناجی سبز یا تهدید خاموش برای منابع آب زیرزمینی؟

جهان در هفته‌ای که گذشت

حکیمی‌پور دبیرکل حزب اراده ملت ایران شد

آغاز به‌کار گروه تلفیق برنامه‌ریزی بلندمدت حزب اراده ملت ایران

ابقا هیأت اجرایی با حضور دبیرکل جدید

مدرسه حزبی3؛ آغاز دوره زمستان در افق تازه اندیشه و آموزش حزبی

ضرورت حکمرانی حزبی در اینجا و اکنون کشور

طبقات ناراضی در جدال با سرمایه‌داری

گرجستان در تقاطع بحران‌ها؛ انتخابات شهرداری و اعتراضات خیابانی

انقلاب وسطی (وسطا) پیش‌درآمد

از برجام تا بازگشت تحریم‌ها؛ روایت ناتمام دیپلماسی و منطق قدرت

مکانیسم ماشه: «مرگ تدریجی امید در پازلی از تحریم و بحران»

استراتژی ایران در شرق: موازنه قدرت یا طراحی نظم منطقه‌ای؟

توصیه نامه سیاسی

معرفی کلی مدل اقتصادی سوئد:

جین گودال تولد و دوران کودکی

جاماندگی

ریشه‌ها و ورود گوجه‌فرنگی به ایران

زنان غیرنظامی در غزه: بار سنگین جنگ بر دوش بی‌صدایان

من پاییز سرد می‌خواهم

فشار اقتصادی و بحران خاموش خودکشی

سالاد کاهو

تا می‌توانی بنویس

کتاب نهنگ که بیشتر می‎خواست

جهان در هفته ای که گذشت (99)

ارسال کتاب «پلنوم چهارم حزب اراده ملت ایران» به وزارت فرهنگ و ارشاد اسلامی

انتصاب مدیر جدید پژوهشسرای ملاصدرا زنجان

برگزاری پلنوم چهارم حزب اراده ملت ایران پیش از کنگره سراسری یازدهم

برگزاری نشست اصلاح‌طلبان نیشابور برای انتخابات شورای شهر

نشست هم‌اندیشی اصلاح‌طلبان نیشابور با موضوع «برای انتخابات شوراها چه باید کرد؟»

تشکیل نخستین نشست کارگروه تدوین برنامه استراتژیک «حاما»

چپول