آخرین مطالب

متن سخنرانی دکتر افشین فرهانچی،پزشک و دبیر کل "حزب اراده ملت ایران" در سمینار هوش مصنوعی در سلامت؛ ملاحظات علوم انسانی سلامت

“فناوری بی‌اخلاق، شمشیری است در دست کودک نابالغ” اندیشه

“فناوری بی‌اخلاق، شمشیری است در دست کودک نابالغ”

  بزرگنمایی:
روز جمعه ۱۲ اردیبهشت به مناسبت روز استاد و معلم، سمیناری یک روزه به مدیریت نظام پزشکی همدان و همکاری دانشگاه علوم پزشکی همدان در موضوع هوش مصنوعی در سلامت برگزار گردید. در این همایش یک روزه پانصد نفر از اساتید و پزشکان همراه با داروسازان و دندان‌پزشکان حضور یافتند تا اطلاعات خویش در باب هوش مصنوعی و مسائل مرتبط با آن را در حوزه سلامت به روز نمایند. دبیر علمی این برنامه دکتر طالب خداویسی دانش‌آموخته مدیریت اطلاعات سلامت بودند. در این برنامه سه نفر از اساتید به سخنرانی پرداختند: دکتر بهروز کارخانه‌ای ریاست دانشگاه و دانش‌آموخته رشته بیهوشی و اخلاق پزشکی، دکتر حمیدرضا نمازی رییس موزه تاریخ پزشکی کشور و دانش‌آموخته فلسفه، طب و اخلاق پزشکی، دکتر افشین فرهانچی دانش‌آموخته رشته بیهوشی، مراقبت‌های ویژه و اخلاق حرفه‌ای. نوشتار پیش رو، متن مکتوب ارائه سخنرانی دکتر افشین فرهانچی، دبیر کل حزب اراده ملت ایران در این همایش است.

افشین فرهانچی

ملاحظات اخلاقی مرتبط با هوش مصنوعی در حوزه سلامت و پزشکی: چالش‌ها، رویکردها و چشم‌انداز آینده
هوش مصنوعی (AI) به سرعت در حال تغییر حوزه‌های مختلف زندگی بشر است و یکی از مهم‌ترین و حساس‌ترین حوزه‌ها، حوزه‌ی سلامت و پزشکی است. از تشخیص بیماری‌ها گرفته تا درمان‌های شخصی‌شده و پیش‌بینی‌های پزشکی، هوش مصنوعی در حال ورود به بسیاری از جنبه‌های مراقبت‌های بهداشتی است. با این حال، استفاده از این فناوری در پزشکی پرسش‌های اخلاقی متعددی را مطرح می‌کند. آیا ما می‌توانیم به ماشین‌ها در مورد سلامت انسان‌ها اعتماد کنیم؟ چگونه می‌توانیم اطمینان حاصل کنیم که تصمیمات هوش مصنوعی به نفع بیماران است؟ چه میزان نظارت انسانی باید در کنار هوش مصنوعی وجود داشته باشد؟ در این سخنرانی، به بررسی ملاحظات اخلاقی پیرامون استفاده از هوش مصنوعی در پزشکی پرداخته خواهد شد و چالش‌ها و چشم‌اندازهای آن در آینده مورد بررسی قرار خواهد گرفت.

مقدمه: نگاهی به ورود هوش مصنوعی به ایران 
ورود اکثر تکنولوژی‌ها در قرن حاضر به ایران داستانی دارد. در این داستان‌ها برجسته‌ترین نکته این است که ما بعلت جداافتادگی تاریخی از جامعه جهانی پیشرو، همواره با مسائل و مشکلاتی روبرو شده‌ایم که در دراز مدت طبعات و مصائبی را برای ما بدنبال داشته است. نمونه بارز و برجسته آن ورود صنعت خودروسازی به ایران بوده است که بدون ایجاد زیرساختهای لازم در زمینه حمل‌ونقل عمومی که از یک سده پیش در دنیا شکل گرفته بود، به یکباره ما را با دنیای ماشین‌های شخصی روبرو کرد و عملا باعث شد که بر خلاف اکثریت کشورهای جهان، خصوصا اروپا، نتوانیم یک سیستم ترابری مردمی و مبتنی بر حمل‌ونقل عمومی داشته باشیم و عملا در دنیای اتومبیل‌های شخصی و سفرهای شخصی غرق شدیم. تکنولوژی هوش مصنوعی نیز از این قاعده مستثنی نیست و اگر نتوانیم با سرعت مناسب و هوشمندی آنرا در زیرساخت‌های فعلی ادغام نمائیم، حتی در صورت موفقیت ظاهری هم، کمکی به ارتقا وضعیت فعلی کشور ما در حوزه توسعه نمی‌کند.

بخش اول: چیستی هوش مصنوعی و کاربردهای آن در پزشکی
هوش مصنوعی در پزشکی به الگوریتم‌ها و سیستم‌هایی اطلاق می‌شود که از داده‌های پزشکی برای تشخیص بیماری‌ها، پیش‌بینی نتایج درمانی، ارائه مشاوره‌های بالینی، و حتی هدایت جراحی‌ها استفاده می‌کنند.
برخی از کاربردهای هوش مصنوعی در پزشکی:
• تشخیص بیماری‌ها: از جمله تشخیص سرطان، بیماری‌های قلبی، و بیماری‌های عصبی.
• پزشکی شخصی‌شده: استفاده از داده‌های ژنتیکی و سوابق پزشکی برای ارائه درمان‌های اختصاصی.
• پیش‌بینی و پیشگیری: پیش‌بینی ابتلا به بیماری‌ها بر اساس داده‌های بیومتریک و تاریخچه‌ی پزشکی.
• روباتیک پزشکی: ربات‌های جراحی که می‌توانند عمل‌های جراحی را با دقت بالاتر انجام دهند.

بخش دوم: ملاحظات اخلاقی در کاربرد هوش مصنوعی در پزشکی

1. مسئولیت اخلاقی  (Moral Responsibility)
یکی از بزرگ‌ترین دغدغه‌های اخلاقی در هوش مصنوعی در پزشکی، مسئولیت در برابر خطاها است. اگر یک سیستم هوش مصنوعی خطایی کند (مثلاً تشخیص نادرست سرطان یا تجویز داروی اشتباه)، مسئولیت بر عهده کیست؟ 
در سال 2019، یک الگوریتم هوش مصنوعی در تشخیص سرطان ریه در مقایسه با پزشکان انسانی عملکرد بهتری نشان داد، اما در برخی موارد نادر، خطاهایی داشت که باعث تشخیص‌های نادرست شد. در چنین شرایطی، مسئله مسئولیت و نظارت انسان مطرح می‌شود.
2. عدالت و تبعیض  (Fairness & Bias)
الگوریتم‌های هوش مصنوعی ممکن است با داده‌های نادرست یا نابرابر آموزش ببینند که منجر به تبعیض در تشخیص‌ها و درمان‌ها می‌شود. مثال: یک سیستم تشخیص بیماری‌های قلبی که عمدتاً با داده‌های مردانه آموزش دیده است، ممکن است مردان را به درستی تشخیص دهد، اما نتایج دقیقی برای زنان نداشته باشد. این به دلیل سوگیری جنسیتی در داده‌ها است. 
به عنوان مثال، در یک مطالعه در سال 2020، محققان دریافتند که الگوریتم‌های پزشکی در پیش‌بینی بیماری‌های قلبی بیشتر برای مردان دقیق بوده و دقت کمتری در تشخیص برای زنان داشتند.
3. شفافیت و توضیح‌پذیری  (Transparency & Explainability)
الگوریتم‌های یادگیری عمیق (Deep Learning) در پزشکی ممکن است شبیه جعبه‌های سیاه باشند که توضیح دهندگی کمی دارند. برای مثال، در صورت استفاده از یک سیستم هوش مصنوعی برای انتخاب روش درمانی برای بیماران، چگونه می‌توان توضیح داد که چرا این روش انتخاب شده است؟ بیمار یا حتی پزشک ممکن است از الگوریتم بپرسد چرا یک درمان خاص انتخاب شده است و در بسیاری از مواقع، هوش مصنوعی قادر به ارائه توضیحات شفاف نیست.
4. حریم خصوصی و امنیت داده‌ها  (Privacy & Data Security)
در پزشکی، هوش مصنوعی نیاز به دسترسی به داده‌های حساس بیماران دارد، مانند سوابق پزشکی، نتایج آزمایش‌ها، و حتی اطلاعات ژنتیکی. آیا این داده‌ها باید به طور کامل حفظ شوند؟ آیا بیماران حق دارند بدانند که داده‌هایشان چگونه استفاده می‌شوند؟ 
در سال 2018، شرکت گوگل به‌طور غیرقانونی اطلاعات پزشکی میلیون‌ها بیمار را بدون اطلاع آنان جمع‌آوری کرد که باعث نگرانی‌های گسترده در زمینه حریم خصوصی شد.
5. کنترل انسانی و اختیار  (Human Agency)
در سیستم‌های پزشکی مبتنی بر هوش مصنوعی، کنترل انسانی به ویژه در تصمیمات بالینی همچنان ضروری است. آیا باید انسان‌ها در نهایت تصمیم‌گیرندگان باشند یا هوش مصنوعی باید قدرت تصمیم‌گیری کامل را داشته باشد؟ در مورد ربات‌های جراح، همچنان سوالاتی در مورد نظارت انسانی و صلاحیت جراح‌ها برای استفاده از این تکنولوژی مطرح است.

بخش سوم: رویکردهای نظری به اخلاق در هوش مصنوعی پزشکی

اخلاق وظیفه‌گرا  (Deontological Ethics)
این رویکرد بر رعایت قوانین و وظایف اخلاقی تأکید دارد. برای مثال، یک ربات جراح باید تحت هیچ شرایطی به بیمار آسیب نرساند، حتی اگر نتیجه‌ی بهتری برای اکثریت بیماران فراهم کند.
اخلاق پیامدگرا  (Utilitarian Ethics)
این رویکرد بر بیشینه‌سازی منافع برای بیشترین افراد تأکید دارد. در مورد هوش مصنوعی پزشکی، اگر یک سیستم هوش مصنوعی تصمیمی بگیرد که برای بیشترین تعداد بیماران به نفع باشد، اما به بعضی از بیماران آسیب برساند، این تصمیم ممکن است بر اساس اصول اخلاقی پیامدگرایانه توجیه شود.
اخلاق فضیلت‌محور  (Virtue Ethics)
این رویکرد بر تربیت فضائل اخلاقی در انسان‌ها و ماشین‌ها تأکید دارد. در پزشکی، آیا ممکن است ماشین‌ها بتوانند فضائل انسانی مانند همدلی یا شفقت را در تصمیمات خود لحاظ کنند؟

بخش چهارم: مثال‌ها و چالش‌های اخلاقی در هوش مصنوعی پزشکی

1. سیستم‌های تشخیص بیماری سرطان
هوش مصنوعی به طور فزاینده‌ای در تشخیص سرطان‌ها از طریق تحلیل تصاویر پزشکی، مانند ماموگرافی‌ها و سی‌تی‌اسکن‌ها، مورد استفاده قرار می‌گیرد. اما چالش اخلاقی این است که آیا می‌توانیم به طور کامل به هوش مصنوعی برای تشخیص درست و سریع بیماری‌ها اعتماد کنیم؟ 
در سال 2018، مطالعه‌ای نشان داد که یک سیستم هوش مصنوعی توانست در تشخیص سرطان پوست از پزشکان انسانی دقیق‌تر عمل کند. اما سوال این است که چگونه این سیستم‌ها آموزش داده می‌شوند و چه تضمینی برای دقت آنها وجود دارد؟
2. روبات‌های جراح و تصمیمات جراحی
روبات‌های جراحی مانند دائو داوینچی که در حال حاضر در برخی بیمارستان‌ها استفاده می‌شوند، می‌توانند جراحی‌های پیچیده‌ای را با دقت بالا انجام دهند. اما چالش اخلاقی این است که در صورتی که ربات جراح خطا کند، مسئولیت آن با کیست؟ 
به عنوان مثال، یک جراح ممکن است در حین استفاده از ربات جراح تصمیمی بگیرد که خطرات بیشتری برای بیمار داشته باشد. در این صورت، نظارت انسانی و مسئولیت‌پذیری جراح در استفاده از این ابزارها حیاتی است.
هوش مصنوعی در پزشکی، با تمامی پتانسیل‌های خود برای بهبود تشخیص، درمان، و پیشگیری بیماری‌ها، چالش‌های اخلاقی قابل توجهی را نیز به همراه دارد. مسئولیت اخلاقی، عدالت، حریم خصوصی، شفافیت و نظارت انسانی از جمله دغدغه‌های اصلی در این زمینه هستند. برای بهره‌مندی از فواید هوش مصنوعی در پزشکی، ضروری است که با دقت به ملاحظات اخلاقی پرداخته شود و همزمان حقوق و کرامت انسان‌ها حفظ گردد.

"هر پیشرفتی که در فناوری ایجاد می‌شود، باید در خدمت
 انسان باشد و نه بر ضد آن."


بخشی از این سخنرانی بر اساس منبع زیر است:
اخلاق در هوش مصنوعی نوشته برند کارستن‌استال، دوریس شرودر، رووینا رادریگس با ترجمه فرزام حبیبی – نشر آریابان - سال 1403 - صفحه 170



نظرات شما

ارسال دیدگاه

Protected by FormShield

lastnews

چپول

تحلیل راهبردی ISTAR و تأثیر آن بر امنیت ملی ایران

سبقت تورم از افزایش حقوق چگونه قابل مدیریت است؟

ضرورت پرداختن به جامعه‌شناسی زبان

توصیه ضدترور برای نیروهای امنیتی

سازمان‌های مردم‌نهاد و تعهد سازمانی

نواختن سرنا از سر گشاد آن

کهن الگوی زن- قهرمان در افسانه های ایرانی

جهان در هفته ای که گذشت(98)

معرفی کتاب کاربست فلسفه در اخلاق حرفه‌ای چاپ دوم - به ضمیمه سه مقاله در باب دروغ، عقلانی زیستن و فضائل اخلاقی

راهی که به فردا نمی‌رسد

جنگ و سیاست، رکود اقتصادی روسیه در سایه بحران‌های طولانی

سه عنوان تازه از انتشارات حزب اراده ملت ایران

«مدرسه حزبی 2»؛ پاییز آموزش، دیپلماسی و اندیشه در افق سیاست ایران

آغاز «سه‌شنبه‌های گفت‌وگو» به صورت مجازی با حضور دکتر بیژن عبدالکریمی

زن و محیط‌زیست در آیینه‌ آثار بهرام بیضایی

همه چیز رو به زوال است

معرفی کتاب «بچه‌های راه‌آهن»

پیشگام جنبش محیط‌زیستی جهان

بازتعریف عدالت و هویت در دنیای معاصر

تاریخ در آیینه، آزمونِ امروز

حضور هنرمندان جهان در کنسرت خیریه «با هم برای فلسطین»

همه چیز برای آنهاست

دریچه‌ای دیگر، برای نگریستن!

برگزاری پلنوم چهارم حزب پیش از کنگره سراسری یازدهم

هابرماس در عصر دیجیتال: فروپاشی فضای عمومی و چالش کنش ارتباطی در سایه الگوریتم‌ها

پرده سبز

از تهدید تا فرصت ایران و دوراهی تدبیر یا هیجان

اعتماد عمومی به مثابه ثروت

حجله‌ی آتش و خون

درس‌هایی در 12 روز

جنگ های جدید چگونه است؟

جهان در هفته ای که گذشت(97)

چهارمین پلنوم حزب اراده ملت ایران در مهر ماه برگزار می‌شود.

گرجستان؛ سفره‌ای کوچک، اما باز برای همه

«مدرسه حزبی 2» در آستانه آغاز؛ پاییز امسال با نیرویی دوچندان

کتاب «امنیت پایدار آب و سیاست خارجی» راهی چاپخانه شد

انتصاب مشاور جوان و رئیس شورای مشورتی جوانان خوزستان

24 آگوست، نمایش قدرت و وحشت شوروی

پدر علم کویرشناسی ایران

فقط ما بودیم و بس

مدرسه حزبی؛ از رؤیا تا نهاد

به تمامی رعیت، اما بزک‌شده

روز مبارزه با تروریسم فراتر از مبارزه نظامی، به‌سوی امنیت پایدار با رویکردی جامع و ملی

در راه مانده

معرفی کتاب امنیت پایدار آب و سیاست خارجی

معرفی کتاب «خرس کوچولو و خرس بزرگ»

جامعه‌شناسی نقش زنان در سازمان‌های مردم‌نهاد

نقد کتاب «انضباط بدون گریه»

بازگشت به نهاد: راهی برای عبور از فرسایش سیاست