OpenAI شورای خوب بودن را تشکیل می‌دهد، در حالی که Altman محدودیت‌های ChatGPT برای محتوای بزرگسالان را سبک‌تر می‌کند.

OpenAI شورای خوب بودن را تشکیل می‌دهد، در حالی که Altman محدودیت‌های ChatGPT برای محتوای بزرگسالان را سبک‌تر می‌کند.

خلاصه اینکه

  • OpenAI روز سه‌شنبه یک شورای کارشناسان هشت‌نفره در زمینه رفاه و هوش مصنوعی را معرفی کرد.
  • در همان روز، سام آلتمن، مدیرعامل، اعلام کرد که بزرگسالان تأیید شده به زودی مجاز خواهند بود که با استفاده از چت‌جی‌پی‌تی، آثار اروتیک نوشته و منتشر کنند.
  • این جابجایی‌ها در میان شکایات و انتقادات درباره نقش هوش مصنوعی در بحران‌های سلامت روانی نوجوانان انجام می‌شود.

اوپن‌ای‌آی روز سه‌شنبه اعلام کرد که این شرکت شکل گرفته یک شورای تخصصی در زمینه رفاه و هوش مصنوعی، گروهی از دانشگاهیان و رهبران سازمان‌های غیرانتفاعی که مسئولیت دارند به شرکت کمک کنند تا دریابد محصولات آن چگونه بر سلامت روان تأثیر می‌گذارد.

نقش آن‌ها این است که ما را مشاوره دهند، سوالات مطرح کنند و به تعریف اینکه تعاملات سالم با هوش مصنوعی باید برای تمام سنین چگونه باشد، کمک کنند.” این شرکت در بیانیه‌ای اعلام کرد.

هیأت هشت نفره شامل محققانی از هاروارد، استنفورد، آکسفورد و دیگر مؤسسات است که به شکل‌گیری دستورالعمل‌ها کمک خواهند کرد.

«کار ما با شورا شامل بررسی‌های منظم در مورد رویکرد ما و جلسات مکرر برای بررسی موضوعاتی مانند اینکه هوش مصنوعی باید در موقعیت‌های پیچیده یا حساس چگونه رفتار کند و چه نوع محدودیت‌هایی می‌تواند بهترین حمایت را از افرادی که از ChatGPT استفاده می‌کنند، به عمل آورد»، OpenAI افزود.

هوش مصنوعی و ایمنی عمومی

OpenAI و سایر شرکت‌های هوش مصنوعی تحت فشار فزاینده‌ای قرار دارند درباره اینکه چگونه این فناوری بر کاربران، به ویژه کودکان، تأثیر می‌گذارد. این شرکت، همراه با سایر شرکت‌های این صنعت، با شکایت‌هایی از طرف والدین مواجه شده است که ادعا می‌کنند گفتگوهای هوش مصنوعی به خودکشی‌های نوجوانان کمک کرده است و این موضوع باعث شد که OpenAI در اوایل سال جاری کنترل‌های والدین را معرفی کند. دیگران نیز وابستگی به چت‌بات‌ها را عامل برهم خوردن روابط و افزایش انزوای اجتماعی دانسته‌اند.

ایجاد شورای رفاه به دنبال فشار عمومی، یک مسئله ادامه‌دار در بخش فناوری را به نمایش می‌گذارد که در آن شرکت‌ها تنها زمانی به عواقب روانی و اخلاقی محصولات خود می‌پردازند که آن محصولات قبلاً در جریان انبوه قرار گرفته‌اند. منتقدان می‌گویند این یک چرخه آشنا است: نوآوری ابتدا، مسؤولیت بعد.

«این به نظر می‌رسد بخشی از الگوی معمول حرکت سریع، خراب کردن چیزها و تلاش برای تعمیر برخی چیزها پس از شرمندگی باشد،» سخنگوی NGO AlgorithmWatch گفت. رمزگشایی .

AlgorithmWatch همچنین سوالاتی درباره استقلال شورای جدید مطرح کرد و به تاریخچه OpenAI اشاره کرد. درگیری‌های قدرت داخلی “ما باید به خاطر داشته باشیم که زمانی که هیئت قبلی OpenAI سعی کردند با ابراز بی‌اعتمادی به سم آلتمن تأثیر بگذارند، همگی برکنار و جایگزین شدند.”

AlgorithmWatch پیشنهاد داد که یک “سابقه کمی بهتر (اما هنوز محدود)” می‌تواند هیئت نظارتی متا باشد و اشاره کرد که در حالی که پیشنهادات آن‌ها “بسیار کند و اغلب نادیده گرفته می‌شوند”، این هیئت “پیشنهادات واضح و عمومی به حدی ارائه می‌دهد که مردم می‌توانند ببینند متا چه مواردی را نادیده می‌گیرد.”

شدی ال داماتی، یکی از بنیانگذاران هولونیم و مدافع حقوق دیجیتال، گفت رمزگشایی او این را “تعارض‌آمیز” یافت که همان شرکت‌هایی که در حال رقابت برای پیاده‌سازی قدرتمندترین ابزارهای هوش مصنوعی هستند، اکنون خود را به عنوان “داوران اخلاقی” معرفی می‌کنند.

“اما این گفتگوها فوری و معوقه هستند، بنابراین من وجود شورا را زیر سوال نمی‌برم. اگر هم چیزی باشد، امیدوارم که حد و شرایط برای همه را بالاتر ببرد.” او افزود.

علاوه بر رفاه، او گفت دوست دارد شورای مورد نظر به مسائل مربوط به حریم خصوصی و هویت نیز بپردازد. “حداقل، شورا باید معیارهای شفاف و عمومی برای اندازه‌گیری تأثیر عاطفی هوش مصنوعی تعیین کند و الزامات ممیزی‌های مستقل و منظم را داشته باشد”، او گفت. “اما واقعاً به قواعد و مقرراتی سخت‌گیرانه نیاز داریم که از حقوق دیجیتال ما محافظت کند و به این موارد هرچه زودتر نیاز داریم.”

شورای تخصصی OpenAI “فرصتی برای عمیق‌تر شدن نسبت به ایمنی دارد”، او اضافه کرد. “آنها باید بپرسند: مردم در فضاهای دیجیتال چه حقوقی دارند؟ چه کسی مالک هویت، رفتار و شباهت آنهاست؟ طراحی انسانی مدار واقعاً چگونه به نظر می‌رسد… نه فقط برای کودکان، بلکه برای همه؟”

اوپن‌ای آی محدودیت‌های محتوا برای بزرگسالان را کاهش می‌دهد

تمرکز تازه شرکت بر روی رفاه همچنین با اعلام سام آلتمن، مدیر عامل، همزمان شد که اوپن‌ای آی نیز آغاز خواهد کرد کاهش محدودیت‌ها ، از جمله محتوای بزرگسالان، در دسامبر.

«ما ChatGPT را به‌قدری محدود کردیم تا مطمئن شویم با مسائل مربوط به سلامت روان با احتیاط رفتار می‌کنیم»، آلتمن توییت کرد در همان روز.

ما متوجه هستیم که این موضوع برای بسیاری از کاربرانی که هیچ مشکل سلامت روانی نداشتند، کمتر مفید و لذت‌بخش بود، اما با توجه به جدیت مسئله، می‌خواستیم این موضوع را به درستی انجام دهیم.

آلتمان گفت بزرگسالان تأییدشده به زودی اجازه خواهند داشت از ChatGPT برای ایجاد آثار جنسی استفاده کنند و این را بخشی از یک اصل کلی‌تر برای «رفتار با کاربران بزرگسال مانند بزرگسالان» توصیف کرد.

عموماً هوشمند خبرنامه

یک سفر هفتگی در دنیای هوش مصنوعی که توسط جن، یک مدل هوش مصنوعی مولد، روایت می‌شود.

لینک منبع


منتشر شده

در

توسط

برچسب‌ها:

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *