وکلایی که عدالت را به Ai می‌سپارند

هذیان‌های هوش مصنوعی در مستندات دادگاه

قاضی لایحه‌ی نوشته‌ی AI را رد کرد

هذیان‌های هوش مصنوعی در مستندات دادگاه
هوش مصنوعی می‌تواند اطلاعات نادرستی تولید کند که ممکن است وارد مستندات دادگاه شود.

ایمی سالیزن، استاد حقوق در کانادا: پدیده‌ای که در آن وکلا مستندات دادگاه را ارائه می‌دهند که به پرونده‌های غیرواقعی استناد می‌کنند، جهانی است. ابزارهای هوش مصنوعی، مانند ChatGPT، ابزارهای بازیابی اطلاعات نیستند بلکه ابزارهایی هستند که الگوهای زبان را مطابقت می‌دهند. در نتیجه می‌تواند اطلاعات نادرستی بدهند که «بسیار واقعی به‌نظر می‌رسند».

 

 

ترجمه و تنظیم: خسرو شمیرانی

 

کارشناسان حقوقی می‌گویند انتقاد یک قاضی انتاریو از وکیلی که ظاهراً برای تهیه مستندات دادگاه به هوش مصنوعی تکیه کرده بود، توجه‌ها را به خطرات ابزارهای هوش مصنوعی جلب کرده است که می‌توانند اطلاعات نادرست یا ساختگی تولید کنند.

ایمی سالیزن، استاد دانشکده حقوق دانشگاه اتاوا می‌گوید: با استفاده از این ابزارها روایت‌های جعلی، که به‌عنوان «توهمات هوش مصنوعی» شناخته می‌شوند، می‌توانند وارد مستندات حقوقی شوند.

 

ماجرا چطور شروع می‌شود؟

طبق نظام حقوقی انگلیسی  Common Law وکلای حقوقی معمولاً پیشنهاد می‌کنند که دادگاه از کدام حکم‌های قدیمی — یا قوانین موردی — در پرونده‌ی موکل‌شان استفاده کند. سپس قاضیان تعیین می‌کنند که کدام پرونده‌ها را در نظر بگیرند.

ایمی سالیزن می‌گوید: مشکل زمانی پیش می‌آید که وکلا از ابزارهای هوش مصنوعی مولد استفاده می‌کنند. چرا که این نرم‌افزارها می‌توانند اطلاعات ساختگی تولید کنند. بنابراین، تصمیم قاضی ممکن است با تکیه به اطلاعات نادرست باشد که هوش مصنوعی وارد لایحه کرده است.

سالیزن در روز جمعه به برنامه مترو مورنینگ رادیو CBC گفت: «شما نمی‌خواهید دادگاه تصمیمی درباره حقوق، آزادی یا پول کسی بگیرد بر اساس چیزی که کاملاً ساختگی است.»

«نگرانی بزرگ این است که اگر یکی از این موارد به‌طور بالقوه از زیر چشم رد شود، می‌تواند منجر به اشتباه قضایی شود.»

 

دستور قاضی کینکل به وکیل آروین راس

اظهارات او پس از آن مطرح شد که قاضی جوزف اف. کنکل، قاضی انتاریو، در تاریخ ۲۶ مه به وکیل مدافع جنایی آروین راس دستور داد تا مستندات دفاعی خود را برای یک پرونده «حمله فیزیکی شدید» دوباره ارائه دهد، زیرا در آن‌ها «مشکلات جدی» یافته بود.

کنکل گفت یکی از پرونده‌هایی که به آنها استناد شده ظاهراً ساختگی بود، و در چندین مورد هم به پرونده‌های مدنی نامرتبط ارجاع داده شده بود.

قاضی کنکل نوشت: «اشتباهات در لایحه‌‌های تولیدی AI‌ فراوان و اساسی هستند.»

 

کنکل به وکیل حقوقی، راس دستور داد تا «مجموعه جدیدی از مستندات دفاعی» تهیه کند و اطمینان حاصل کند: پاراگراف‌ها و صفحات شماره‌گذاری شده‌اند؛ ارجاعات به پرونده‌ها شامل "ارجاع دقیق" به پاراگرافی است که نکته مطرح شده را توضیح می‌دهد؛ ارجاعات به پرونده‌ها بررسی شده و شامل لینک‌هایی به CanLII، (سازمان غیرانتفاعی که دسترسی آنلاین به تصمیمات حقوقی را فراهم می‌کند)‌باشد یا سایت‌های معتبر دیگر.

قاضی کنکل همچنین نوشته است: «هوش مصنوعی مولد یا نرم‌افزار حقوقی تجاری که از هوش مصنوعی مولد استفاده می‌کند نباید برای تحقیقات حقوقی این مستندات استفاده شود.»

سی.بی.سی CBC تورنتو با راس تماس گرفت اما او درخواست مصاحبه را رد کرد و در بیانیه‌ای گفت که «بر رعایت دستورات دادگاه تمرکز دارد.»

 

پرونده‌های هذیانی هوش مصنوعی در لیست بین‌المللی مرجع

این پرونده، با عنوان R. v. Chand، دومین پرونده کانادایی است که در فهرست وکیل فرانسوی دامیان شارلوتین قرار گرفته. لیست او شامل تصمیمات حقوقی در پرونده‌هایی است که «هوش مصنوعی مولد محتوای توهمی تولید کرده است.»

در بسیاری از موارد، وکلا در این فهرست از ارجاعات جعلی استفاده کرده‌اند. این فهرست تاکنون ۱۳۷ پرونده را شناسایی کرده است.

ایمی سالیزن می‌گوید: پدیده‌ای که در آن وکلا مستندات دادگاه را ارائه می‌دهند که به پرونده‌های غیرواقعی استناد می‌کنند، جهانی است. ابزارهای هوش مصنوعی، مانند ChatGPT، ابزارهای بازیابی اطلاعات نیستند بلکه ابزارهایی هستند که الگوهای زبان را مطابقت می‌دهند. در نتیجه می‌تواند اطلاعات نادرستی بدهند که «بسیار واقعی به‌نظر می‌رسند».

 

راستی‌آزمایی یک امر کلیدی است

سالیزن گفت وکلا مسئول کارهایی هستند که برای موکلان و دادگاه‌ها تولید می‌کنند، اما اگر قرار است به فناوری تکیه کنند، باید اطمینان حاصل کنند که اطلاعات ساختگی منتقل نمی‌شود. راستی‌آزمایی یک امر کلیدی است:

«اگر وکلا از فناوری برای کمک به کارهای خود استفاده می‌کنند، باید آنچه را که فناوری تولید می‌کند، راستی‌آزمایی کنند.»

 

نادیر ساچک، وکیل مدافع جنایی از شرکت حقوقی ساچک در تورنتو، گفت هوش مصنوعی منبعی است که می‌تواند توسط وکلا استفاده شود اما وکلا در نهایت مسئول آنچه هستند که به دادگاه ارائه می‌دهند: «شما باید مطمئن شوید که اگر به فناوری مانند هوش مصنوعی تکیه می‌کنید، این کار به‌درستی انجام شده است.»

او گفت در پرونده R. v. Chand، قاضی با کیفیت دفاع ارائه‌شده مشکلی نداشت اما به‌نظر می‌رسد وکیل مربوطه استدلال ارائه‌شده به دادگاه را بررسی نکرده بود.

 

استفاده از هوش مصنوعی همچنین سؤالاتی را درباره نحوه صدور صورت‌حساب وکلا به موکلان مطرح می‌کند، ساچک گفت:

در ایمیلی در روز دوشنبه، انجمن حقوقی انتاریو گفت نمی‌تواند اطلاعاتی درباره هرگونه تحقیقاتی که انجام داده است، به اشتراک بگذارد، اما گفت که یک مقاله راهنما تهیه کرده است که ملاحظاتی برای وکلا درباره نحوه اعمال قوانین رفتار حرفه‌ای آن‌ها در ارائه خدمات حقوقی با استفاده از هوش مصنوعی مولد در آن درج شده است.

 

منبع: سی.بی.سی نیوز

ارسال نظرات