OpenAI, 어린이 안전을 연구하는 새로운 팀을 구성

OpenAI, 어린이 안전을 연구하는 새로운 팀을 구성

퀘이사존

활동가들과 부모들의 감시를 받고 있는 OpenAI는 자사의 AI 도구가 어린이에게 오용되거나 남용되는 것을 방지하는 방법을 연구하기 위해 새로운 팀을 구성했습니다.

OpenAI는 채용 페이지의 새 구인 공고에서 아동 안전 팀의 존재를 공개하며, 이 팀이 미성년자 사용자와 관련된 ‘프로세스, 사건 및 검토’를 관리하기 위해 OpenAI 내 플랫폼 정책, 법률 및 조사 그룹은 물론 외부 파트너와 협력하고 있다고 밝혔습니다.

이 팀은 현재 아동 안전 집행 전문가를 채용하고 있으며, 이 전문가가 AI로 생성된 콘텐츠에 OpenAI의 정책을 적용하고 ‘민감한'(아마도 아동 관련) 콘텐츠와 관련된 검토 프로세스를 담당하게 될 것입니다.

일정 규모 이상의 기술 공급업체는 미국 아동 온라인 개인정보 보호 규정과 같은 법률을 준수하기 위해 상당한 양의 리소스를 투입하는데, 이는 어린이가 웹에서 액세스할 수 있는 것과 액세스할 수 없는 것, 그리고 기업이 수집할 수 있는 데이터의 종류에 대한 통제를 의무화하고 있습니다. 따라서 OpenAI가 아동 안전 전문가를 고용한 것은 언젠가 상당한 미성년자 사용자층을 확보할 것으로 예상되는 회사라면 전혀 놀라운 일이 아닙니다. (OpenAI의 현재 이용 약관은 13~18세 아동의 경우 부모의 동의가 필요하며 13세 미만 아동의 사용은 금지하고 있습니다.)

그러나 OpenAI가 어린이 친화적인 AI 가이드라인에 협력하기 위해 커먼센스 미디어와 파트너십을 체결하고 첫 교육 고객을 유치한 지 몇 주 만에 새로운 팀을 구성한 것은 미성년자의 AI 사용과 관련된 정책과 부정적인 언론에 대한 OpenAI의 경계를 시사합니다.

어린이와 청소년은 학업뿐만 아니라 개인적인 문제 해결을 위해 점점 더 많은 도움을 받기 위해 GenAI 도구를 찾고 있습니다. 민주주의와 기술 센터의 설문조사에 따르면, 29%의 어린이가 불안이나 정신 건강 문제를 해결하기 위해, 22%는 친구와의 문제, 16%는 가족 갈등을 해결하기 위해 ChatGPT를 사용한 적이 있다고 답했습니다.

일부에서는 이를 점점 더 큰 위험으로 보고 있습니다.

지난 여름, 표절과 잘못된 정보에 대한 우려로 인해 학교와 대학들은 서둘러 ChatGPT를 금지했습니다. 그 이후로 일부는 금지 조치를 취소했습니다. 그러나 모든 사람들이 GenAI의 선한 잠재력을 확신하는 것은 아니며, 영국 인터넷 안전 센터(Safer Internet Centre)의 설문조사에 따르면 절반 이상의 어린이(53%)가 또래의 사람들이 믿을 만한 허위 정보나 이미지를 만들어 누군가를 화나게 하는 등 부정적인 방식으로 GenAI를 사용하는 것을 본 적이 있다고 답한 것으로 나타났습니다.

지난 9월, OpenAI는 교실에서 GenAI를 교육 도구로 사용하는 방법에 대한 교육자 지침을 제공하는 안내문과 FAQ가 포함된 ChatGPT용 문서를 발표했습니다. 지원 문서 중 하나에서 OpenAI는 자사의 도구, 특히 ChatGPT가 “모든 대상이나 모든 연령대에 적합하지 않은 결과물을 생성할 수 있다”고 인정하고 연령 요건을 충족하는 경우에도 어린이에게 노출할 때 “주의”를 기울일 것을 권고했습니다.

GenAI의 어린이 사용에 대한 가이드라인을 마련해야 한다는 목소리가 커지고 있습니다.

유엔 교육과학문화기구(UNESCO)는 작년 말 각국 정부에 사용자 연령 제한과 데이터 보호 및 사용자 개인정보 보호에 대한 가드레일을 도입하는 등 교육 분야에서 GenAI 사용을 규제할 것을 촉구한 바 있습니다. 오드리 아줄레 유네스코 사무총장은 보도자료를 통해 “생성 AI는 인류 발전에 엄청난 기회가 될 수 있지만, 해악과 편견을 초래할 수도 있습니다.”라고 말했습니다. “대중의 참여와 정부의 필요한 안전장치 및 규제 없이는 교육에 통합될 수 없습니다.”

※ 퀘이사존 공식 기사가 아닌 해외 뉴스/기사를 번역한 것으로, 퀘이사존 견해와 주관은 포함되어 있지 않습니다.




Scroll to Top