
OpenAI شورای خوب بودن را تشکیل میدهد، در حالی که Altman محدودیتهای ChatGPT برای محتوای بزرگسالان را سبکتر میکند.
خلاصه اینکه OpenAI روز سهشنبه یک شورای کارشناسان هشتنفره در زمینه رفاه و هوش مصنوعی را معرفی کرد. در همان روز، سام آلتمن، مدیرعامل، اعلام کرد که بزرگسالان تأیید شده به زودی مجاز خواهند بود که با...
خلاصه اینکه
- OpenAI روز سهشنبه یک شورای کارشناسان هشتنفره در زمینه رفاه و هوش مصنوعی را معرفی کرد.
- در همان روز، سام آلتمن، مدیرعامل، اعلام کرد که بزرگسالان تأیید شده به زودی مجاز خواهند بود که با استفاده از چتجیپیتی، آثار اروتیک نوشته و منتشر کنند.
- این جابجاییها در میان شکایات و انتقادات درباره نقش هوش مصنوعی در بحرانهای سلامت روانی نوجوانان انجام میشود.
اوپنایآی روز سهشنبه اعلام کرد که این شرکت شکل گرفته یک شورای تخصصی در زمینه رفاه و هوش مصنوعی، گروهی از دانشگاهیان و رهبران سازمانهای غیرانتفاعی که مسئولیت دارند به شرکت کمک کنند تا دریابد محصولات آن چگونه بر سلامت روان تأثیر میگذارد.
نقش آنها این است که ما را مشاوره دهند، سوالات مطرح کنند و به تعریف اینکه تعاملات سالم با هوش مصنوعی باید برای تمام سنین چگونه باشد، کمک کنند.” این شرکت در بیانیهای اعلام کرد.
هیأت هشت نفره شامل محققانی از هاروارد، استنفورد، آکسفورد و دیگر مؤسسات است که به شکلگیری دستورالعملها کمک خواهند کرد.
«کار ما با شورا شامل بررسیهای منظم در مورد رویکرد ما و جلسات مکرر برای بررسی موضوعاتی مانند اینکه هوش مصنوعی باید در موقعیتهای پیچیده یا حساس چگونه رفتار کند و چه نوع محدودیتهایی میتواند بهترین حمایت را از افرادی که از ChatGPT استفاده میکنند، به عمل آورد»، OpenAI افزود.
هوش مصنوعی و ایمنی عمومی
OpenAI و سایر شرکتهای هوش مصنوعی تحت فشار فزایندهای قرار دارند درباره اینکه چگونه این فناوری بر کاربران، به ویژه کودکان، تأثیر میگذارد. این شرکت، همراه با سایر شرکتهای این صنعت، با شکایتهایی از طرف والدین مواجه شده است که ادعا میکنند گفتگوهای هوش مصنوعی به خودکشیهای نوجوانان کمک کرده است و این موضوع باعث شد که OpenAI در اوایل سال جاری کنترلهای والدین را معرفی کند. دیگران نیز وابستگی به چتباتها را عامل برهم خوردن روابط و افزایش انزوای اجتماعی دانستهاند.
ایجاد شورای رفاه به دنبال فشار عمومی، یک مسئله ادامهدار در بخش فناوری را به نمایش میگذارد که در آن شرکتها تنها زمانی به عواقب روانی و اخلاقی محصولات خود میپردازند که آن محصولات قبلاً در جریان انبوه قرار گرفتهاند. منتقدان میگویند این یک چرخه آشنا است: نوآوری ابتدا، مسؤولیت بعد.
«این به نظر میرسد بخشی از الگوی معمول حرکت سریع، خراب کردن چیزها و تلاش برای تعمیر برخی چیزها پس از شرمندگی باشد،» سخنگوی NGO AlgorithmWatch گفت. رمزگشایی .
AlgorithmWatch همچنین سوالاتی درباره استقلال شورای جدید مطرح کرد و به تاریخچه OpenAI اشاره کرد. درگیریهای قدرت داخلی “ما باید به خاطر داشته باشیم که زمانی که هیئت قبلی OpenAI سعی کردند با ابراز بیاعتمادی به سم آلتمن تأثیر بگذارند، همگی برکنار و جایگزین شدند.”
AlgorithmWatch پیشنهاد داد که یک “سابقه کمی بهتر (اما هنوز محدود)” میتواند هیئت نظارتی متا باشد و اشاره کرد که در حالی که پیشنهادات آنها “بسیار کند و اغلب نادیده گرفته میشوند”، این هیئت “پیشنهادات واضح و عمومی به حدی ارائه میدهد که مردم میتوانند ببینند متا چه مواردی را نادیده میگیرد.”
شدی ال داماتی، یکی از بنیانگذاران هولونیم و مدافع حقوق دیجیتال، گفت رمزگشایی او این را “تعارضآمیز” یافت که همان شرکتهایی که در حال رقابت برای پیادهسازی قدرتمندترین ابزارهای هوش مصنوعی هستند، اکنون خود را به عنوان “داوران اخلاقی” معرفی میکنند.
“اما این گفتگوها فوری و معوقه هستند، بنابراین من وجود شورا را زیر سوال نمیبرم. اگر هم چیزی باشد، امیدوارم که حد و شرایط برای همه را بالاتر ببرد.” او افزود.
علاوه بر رفاه، او گفت دوست دارد شورای مورد نظر به مسائل مربوط به حریم خصوصی و هویت نیز بپردازد. “حداقل، شورا باید معیارهای شفاف و عمومی برای اندازهگیری تأثیر عاطفی هوش مصنوعی تعیین کند و الزامات ممیزیهای مستقل و منظم را داشته باشد”، او گفت. “اما واقعاً به قواعد و مقرراتی سختگیرانه نیاز داریم که از حقوق دیجیتال ما محافظت کند و به این موارد هرچه زودتر نیاز داریم.”
شورای تخصصی OpenAI “فرصتی برای عمیقتر شدن نسبت به ایمنی دارد”، او اضافه کرد. “آنها باید بپرسند: مردم در فضاهای دیجیتال چه حقوقی دارند؟ چه کسی مالک هویت، رفتار و شباهت آنهاست؟ طراحی انسانی مدار واقعاً چگونه به نظر میرسد… نه فقط برای کودکان، بلکه برای همه؟”
اوپنای آی محدودیتهای محتوا برای بزرگسالان را کاهش میدهد
تمرکز تازه شرکت بر روی رفاه همچنین با اعلام سام آلتمن، مدیر عامل، همزمان شد که اوپنای آی نیز آغاز خواهد کرد کاهش محدودیتها ، از جمله محتوای بزرگسالان، در دسامبر.
«ما ChatGPT را بهقدری محدود کردیم تا مطمئن شویم با مسائل مربوط به سلامت روان با احتیاط رفتار میکنیم»، آلتمن توییت کرد در همان روز.
ما متوجه هستیم که این موضوع برای بسیاری از کاربرانی که هیچ مشکل سلامت روانی نداشتند، کمتر مفید و لذتبخش بود، اما با توجه به جدیت مسئله، میخواستیم این موضوع را به درستی انجام دهیم.
آلتمان گفت بزرگسالان تأییدشده به زودی اجازه خواهند داشت از ChatGPT برای ایجاد آثار جنسی استفاده کنند و این را بخشی از یک اصل کلیتر برای «رفتار با کاربران بزرگسال مانند بزرگسالان» توصیف کرد.
عموماً هوشمند خبرنامه
یک سفر هفتگی در دنیای هوش مصنوعی که توسط جن، یک مدل هوش مصنوعی مولد، روایت میشود.