توضیحات
ما شاهد ظهور “اقتصاد و جامعه هوش مصنوعی” هستیم که در آن فناوریهای هوش مصنوعی بهطور فزایندهای بر روی بسیاری از جنبههای کسب و کار و همچنین زندگی روزمره تأثیر میگذارند. با اهمیت بالا به پیشرفتهای اخیر در سیستمهای تشخیص پزشکی هوش مصنوعی، خودروهای خودران، توانایی فناوری هوش مصنوعی برای اتوماسیون بسیاری از تصمیمهای تجاری مانند تصویب وام، استخدام، پلیسگری و غیره با اهمیت زیادی آشنا شدهایم.
با این حال، همانطور که از تجربیات اخیر مشخص است، سیستمهای هوش مصنوعی ممکن است خطاهایی داشته باشندد، تبعیضهای آشکار یا غیرآشکار را نشان دهند، ممکن است به نویز در داده حساس باشند و اغلب از شفافیت فنی و قضایی کمی برخوردار باشند. این نقاط ضعف در ادبیات علمی ثبت شدهاند، اما همچنین، بهطور مهم، در رسانههای عمومی نیز (حوادث مرتبط با خودروهای خودران، تبعیضها در پلیسگری، استخدام، و سیستمهای وامدهی، تبعیضها در سیستمهای تشخیص چهره برای افراد با پوست متنوع، تشخیصهای پزشکی صحیح به نظر آمده که بعدها به دلیل دلایل اشتباه انجام شدهاند و غیره). این نقاط ضعف مسائل اخلاقی و سیاستی زیادی را برجای میگذارند، نه تنها در جوامع فنی و دانشگاهی، بلکه نیز در میان سازندگان سیاست و عموم مردم، و بدون شک به عنوان یک تکنولوژی بسیار مفید احتمالاً موانع گستردهتری بر راه پذیرش گسترده این فناوری برخواهد داشت.
این مشکلات گسترده در مورد هوش مصنوعی اغلب زیر عنوان “اخلاق و ارزشهای هوش مصنوعی” یا “هوش مصنوعی اعتمادساز” گروهبندی میشوند. جوامع فنی، اپراتورهای پتانسیل، رسانههای محبوب، و همچنین نهادهای سیاسی و حقوقی، مشکل را شناخته و شروع به جستجو و درخواست راهحلها کردهاند. بسیاری از نهادهای سیاسی و فنی بلندپرواز (مانند گروه G20، گروههای متخصص اتحادیه اروپا، انجمن ماشینآلات در ایالات متحده)، و همچنین شرکتهای بزرگ هوش مصنوعی، اعتمادساز هوش مصنوعی را به عنوان یک مسئله حیاتی شناختهاند. جوامع فنی و دانشگاهی هم این مشکلات را از طریق کنفرانسها و کارگاههای اختصاصی و مراکز دانشگاهی مورد بحران قرار دادهاند. نهادهای نظارتی راهنماییها و حتی قوانینی مانند GDPR اتحادیه اروپا با بندهای “حق مطلع شدن” برای تصمیمات مبتنی بر هوش مصنوعی منتشر کردهاند.
نظرات
هیچ دیدگاهی نوشته نشده است.