چالش های ابزار یادداشت برداری بیمارستانی مبتنی بر هوش مصنوعی OpenAI
به گزارش وبلاگ اطلس وب، چند ماه پیش، پزشک من یک ابزار هوش مصنوعی را به من نشان داد که از آن برای ضبط و خلاصه سازی ویزیت های بیماران استفاده می کرد. در خصوص من، خلاصه سازی و یادداشت برداری به خوبی انجام شد؛ اما بر اساس تحقیقاتی که پژوهشگران دانشگاه کرنل (Cornell University) و دانشگاه واشنگتن (University of Washington) انجام داده اند، این ابزار همواره نمی تواند یادداشت برداری های دقیقی ارائه دهد و گاهی اطلاعات ساختگی و نادرستی فراوری می نماید. این ابزار، که با نام ویسپر (Whisper) شناخته می گردد و به وسیله شرکت OpenAI توسعه داده شده، به وسیله شرکت نابلا (Nabla) به کار گرفته شده و در بسیاری از بیمارستان ها برای یادداشت برداری از مکالمات پزشکی استفاده می گردد. برآورد شده که این ابزار تا به امروز حدود 7 میلیون مکالمه پزشکی را مستندسازی کتبی نموده است.
نابلا، به عنوان شرکت توسعه دهنده این ابزار، از مشکل هالوسیناسیون (توهم) یا فراوری اطلاعات ساختگی در ویسپر مطلع است و در کوشش است این چالش را حل نماید. هالوسیناسیون یا فراوری اطلاعات نادرست یکی از چالش های شناخته شده در سیستم های هوش مصنوعی مانند GPT-4 و ویسپر است که می تواند باعث اضافه شدن جملاتی گردد که هرگز بیان نشده اند و به ایجاد سوگیری و نادرستی در یادداشت برداری های پزشکی منجر گردد. این نوع مسائل به ویژه در زمینه های حساس مانند بهداشت و درمان اهمیت زیادی دارد، چرا که اطلاعات نادرست در این حوزه می تواند بر سلامت بیماران تأثیر منفی بگذارد.
بر اساس تحقیقی که گروهی از پژوهشگران دانشگاه های کرنل و واشنگتن انجام داده اند، ویسپر در حدود 1 درصد از مستندسازی های کتبی دچار هالوسیناسیون یا تصورات ساختگی شده. این اطلاعات گاهی شامل جملات خشونت آمیز یا عباراتی بی معنی بودند که در هنگام سکوت در ضبط ها ظاهر می شدند. یکی از نکات کلیدی در این پژوهش، استفاده از نمونه های صوتی از منبعی به نام AphasiaBank است. این منبع شامل مجموعه ای از مکالمات و نمونه های صوتی از افراد مبتلا به آفازیا (Aphasia)، اختلالی در زبان است که منجر به سکوت های مکرر در صحبت می گردد. پژوهشگران دریافتند که این سکوت ها زمینه ای برای بروز هالوسیناسیون در ابزار ویسپر ایجاد می نماید.
یکی از پژوهشگران، آلیسون کونک (Allison Koenecke) از دانشگاه کرنل، نمونه هایی از این خطاهای یادداشت برداری را در شبکه های اجتماعی منتشر نموده است. این نمونه ها شامل عباراتی مانند ممنون که دیدن کردید! بوده اند؛ عبارتی که به دلیل استفاده OpenAI از بیش از یک میلیون ساعت ویدئوی یوتیوب برای آموزش مدل GPT-4 در یادداشت برداری ها ظاهر شده است. چنین جمله ای ممکن است در زمینه های غیرپزشکی بی خطر به نظر برسد، اما در مکالمات بیمارستانی یا پزشکی، اطلاعات ساختگی می تواند خطرات و نگرانی های جدی ایجاد کند.
تبلیغ متنی
ویزای مولتی آلمان
-
دلیل و عوارض مشکل پزشکی از چیست؟
این تحقیق در ماه ژوئن 2023 در کنفرانس FAccT، انجمن ماشین های محاسباتی (Association for Computing Machinery) در برزیل ارائه شد. تا به امروز تعیین نیست که این تحقیق فرآیند داوری علمی را طی نموده یا خیر. از آنجا که دقت و صحت اطلاعات در حوزه پزشکی از اهمیت بالایی برخوردار است، استفاده از ابزارهای هوش مصنوعی که به فراوری اطلاعات نادرست منجر می شوند، می تواند چالش های مهمی را برای کارکنان پزشکی و درمانی ایجاد کند.
یکی از سخنگویان OpenAI به نام تایا کریستیانسون (Taya Christianson) در پاسخ به این تحقیق اظهار داشت که شرکت به طور جدی به این مشکل توجه دارد و همیشه در کوشش است تا کیفیت یادداشت برداری ها را بهبود بخشد و اندازه هالوسیناسیون را کاهش دهد. ویسپر در پلتفرم API شرکت OpenAI در حوزه های حساس مورد استفاده قرار نمی گیرد و استفاده از این ابزار در زمینه های پرخطر محدودیت دارد. بعلاوه، در مستندات مربوط به استفاده منبع باز این مدل نیز توصیه شده که از آن در زمینه های حساس و پرخطر استفاده نگردد. کریستیانسون از پژوهشگران به خاطر اشتراک گذاری یافته هایشان قدردانی کرد.
منبع
the vergeمنبع: یک پزشک