Web Analytics Made Easy - Statcounter
به نقل از «زیسان»
2024-05-08@15:03:34 GMT

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید!

تاریخ انتشار: ۲۷ بهمن ۱۴۰۲ | کد خبر: ۳۹۷۶۳۶۸۳

وقتی هوش مصنوعی در مورد شما دروغ می‌گوید!

زوئی کلاینمن_بی‌بی‌سی: این صحنه را تصور کنید: در خانه با خانواده نشسته‌اید که ناگهان سر و صدای تلفن بلند می‌شود... دوستان و آشناهایتان دارند درباره چیزی که درباره شما در شبکه‌های اجتماعی دیده‌اند هشدار می‌دهند.

به گزارش زی‌سان؛ چنین اتفاقی و چنین احساسی اصلا خوشایند نیست. در مورد خود من یک تصویر بود که ظاهرا از گراک، چت‌بات ایلان ماسک، گرفته شده بود - هر چند که من نمی‌توانم این را تایید کنم - و من را در فهرستی از بدترین پخش‌کنندگان اطلاعات غلط در ایکس (توییتر سابق) قرار می‌داد، در کنار بعضی از کله‌گنده‌ترین سازندگان تئوری‌های توطئه در آمریکا.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

من هیچ ربطی به آن فهرست نداشتم و، به عنوان یک خبرنگار، هیچ علاقه‌ای نداشتم در چنین فهرستی قرار بگیرم.

دسترسی به گراک در بریتانیا ممکن نیست، برای همین از چت‌جی‌پی‌تی و بارد، هوش مصنوعی گوگل، با پرسشی مشابه خواستم که فهرست مشابهی درست کنند. هر دو رد کردند، و بارد پاسخ داد که چنین کاری «بی‌مسئولیتی» است.

من گزارش‌های زیادی راجع به هوش مصنوعی و نظارت بر آن منتشر کرده‌ام، و یکی از بزرگترین نگرانی‌های مردم این است که چطور می‌شود قوانین را با این فناوری تحول‌آفرین و پویا مطابقت داد.

باور مشترک کارشناسان در چندین کشور این است که انسان‌ها باید بتوانند همیشه عملکرد هوش مصنوعی را به چالش بکشند، و هر چه زمان می‌گذرد ابزار‌های هوش مصنوعی هم محتوای بیشتری درباره ما تولید می‌کنند و هم تصمیم‌های بیشتری راجع به زندگی ما می‌گیرند.

در بریتانیا هنوز برای هوش مصنوعی قانون رسمی وجود ندارد، ولی دولت می‌گوید که مسائل مربوط به کارکرد آن باید در قوانین موجود گنجانده شوند.

تصمیم گرفتم کاری بکنم.

اول از همه سراغ ایکس رفتم - و طبق روال عادی این شرکت در قبال پرسش‌های رسانه‌ای نادیده گرفته شدم.

سپس با دو سازمان نظارتی بریتانیا تماس گرفتم. دفتر کمیسیونر اطلاعات نهادی دولتی برای محافظت از داده‌ها است، ولی به من توصیه کرد که با آفکام تماس بگیرم، نهادی که ضابط قانون امنیت آنلاین محسوب می‌شود.

آفکام هم به من گفت که آن فهرست مشمول این قانون نمی‌شود، چون فعالیت مجرمانه نیست. به گفته این نهاد «محتوای غیرقانونی... یعنی محتوایی که ویژگی‌های کیفری داشته باشد، برای همین مسائل حقوقی نظیر افترا را پوشش نمی‌دهد. فرد باید برای برخورد با این کار از مسیر حقوقی وارد شود.»

این حرف یعنی من باید وکیل بگیرم.

در ایالات متحده، یک مجری رادیویی به نام مارک والترز از شرکت اوپن ای‌آی، سازنده چت‌جی‌پی‌تی، شکایت کرده است، چرا که این چت‌بات به غلط مدعی شد که او از یک سازمان خیره کلاه‌برداری کرده است.

یک شهردار استرالیایی هم که به گفته این چت‌بات به گرفتن رشوه محکوم شده بود تهدید کرده بود که از این شرکت شکایت خواهد کرد. او در واقع افشاگری کرده بود و چت‌جی‌پی‌تی داده‌های او را به اشتباه به هم چسبانده بود. این دعوا بیرون دادگاه حل‌وفصل شد.

با دو وکیل که تخصص هوش مصنوعی دارند تماس گرفتم. اولی حاضر به همکاری نشد.

دومی گفت که این «حیطه‌ای نامعلوم» در انگلستان و ولز است.

این وکیل تایید کرد که اتفاقی که برای من افتاده است می‌تواند افترا تلقی شود، چرا که نام من قابل شناسایی است و فهرست نیز منتشر شده بود.

اما در ادامه گفت که این وظیفه من است که ثابت کنم این محتوا برای من زیان‌آور بوده است. باید نشان بدهم که به عنوان یک خبرنگار برای من بد است که به پخش اخبار دروغ متهم شوم.

من اصلا نمی‌دانم که چطور وارد آن فهرست شده بودم، و دقیقا چه کسی آن را دیده بود. اعصابم از این که نمی‌توانستم خودم به گراک دسترسی داشته باشم خرد بود. می‌دانم یک «حالت سرگرمی» دارد که قرار است پاسخ‌های تندوتیزتری بدهد - شاید سر کارم گذاشته بود؟

چت‌بات‌های هوش مصنوعی به «هذیان گفتن» شهرت دارند - که به زبان بچه‌های این حوزه یعنی از خودشان حرف درمی‌آوردند. حتی سازندگانشان هم نمی‌دانند دلیلش چیست. صرفا توضیحی اضافه می‌کنند که خروجی ابزار شاید قابل اتکا نباشد تا از خودشان سلب مسئولیت کنند؛ و حتی پاسخی که می‌گیرید هم لزوما ثابت نیست.

نهایت چه شد؟

با همکارانم در بخش راستی‌آزمایی بی‌بی‌سی صحبت کردم، گروهی از خبرنگاران که کارشان تایید صحت اخبار و منابع خبری است.

بعد از مقداری تحقیق، به این نتیجه رسیدند که آن تصویری که من را متهم به پخش اخبار دروغ کرده بود و همه این گرفتاری زیر سرش بود، احتمالا خودش جعلی بوده است.

واقعا طنز است.

اما این تجربه، همزمان با افزایش نقش هوش مصنوعی در زندگی‌های ما، چشمم را به تنها یکی از چالش‌هایی که در پیش روی ما است باز کرد.

وظیفه ناظران هوش مصنوعی این است که مطمئن شوند انسان‌ها همیشه راهی ساده برای به چالش کشیدن رایانه دارند. اگر هوش مصنوعی دارد درباره شما دروغ می‌گوید - باید سراغ چه کسی بروید؟ فکر می‌کردم که می‌دانم، ولی فرایند ساده‌ای نبود.

tags # هوش مصنوعی سایر اخبار قوی‌ترین پستانداران جهان‌؛ فیل قوی‌تر است یا شیر؟ (عکس) آلت تناسلی مار‌های ماده سرانجام کشف شد! حیوانی که همیشه زنده است؛ کدام حیوانات بیشترین طول عمر را دارند؟ (تصاویر) شخصت‌های تاریخی واقعاً چه شکلی بودند؟

منبع: زیسان

کلیدواژه: هوش مصنوعی هوش مصنوعی چت بات

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت zisaan.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «زیسان» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۷۶۳۶۸۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

وقتی عکس قیچی برگردان ناموفقت را به عنوان ضربه موفق در پروفایلت قرار می‌دهی! / فیلم

وقتی عکس قیچی برگردان ناموفقت را به عنوان ضربه موفق در پروفایلت قرار می‌دهی! / فیلم

دیگر خبرها

  • وقتی عکس قیچی برگردان ناموفقت را به عنوان ضربه موفق در پروفایلت قرار می‌دهی! / فیلم
  • حاشیه‌ها «لایه‌های دروغ» را به «تاوان» رساند؟
  • شاهدان دروغگوی دادگاه‌ها "نقره‌داغ" می‌شوند
  • وقتی میسون مانت فکر می کند رونالدینیو است! / فیلم
  • شاهدان دروغگوی دادگاه‌ها نقره‌داغ می‌شوند
  • شلوغ‌بازی رسانه‌ای برای دروغ‌پراکنی
  • گل محمدی: تعهد کتبی برای کار در تراکتور دروغ است
  • ۳ دروغ بزرگ درباره تظاهرات دانشجویی در آمریکا
  • بنگاه دروغ پراکنی انگلیس
  • دروغ عجیب و شاخدار مهناز افشار در گفتگو با دویچه وله فارسی