2023. 6. 27. 15:03ㆍChatGPT/ChatGPT News 스크립트
1월에 나온 기사로, 뉴스라기엔 오래된 기사이다.
하지만, 내용이 아주 간결하게 잘 요약되었고, Chat GPT에 관한 뉴스 서두에 올리기 굉장히 좋은 기사인 것 같아,
해당 기사를 스크립트하게 되었다.
“ChatGPT가 뭔지 설명해줘.”
“ChatGPT는 OpenAI에서 개발한 GPT-3 언어모델의 파생형입니다. 특히 대화 스타일의 텍스트를 잘 생성하도록 설계되었습니다. 인간이 생성한 대규모 대화 데이터 세트로 훈련됐으며 인간이 대화에서 응답하는 방식과 유사한 방식으로 프롬프트(질문)에 대한 응답을 생성할 수 있습니다.”
미국의 인공지능(AI) 연구 기업 오픈AI가 지난 11월 30일 언어생성 AI인 ‘챗GPT(ChatGPT)’를 공개했다. 이용자들의 피드백을 받아 모델의 강·약점을 파악하기 위한 ‘리서치 프리뷰’ 기간이라 무료로 사용할 수 있다. 인공지능을 전혀 몰라도, 오픈AI의 챗GPT 사이트에 접속해 채팅창에 질문만 하면 답변을 얻을 수 있다. 이용자들은 앞선 인용문처럼 챗GPT의 정체를 묻는 질문부터 시작해, 오만가지를 묻고 있다.
이용자들의 반응은 폭발적이다. 오픈AI의 공동 창립자인 샘 알트먼은 지난 12월 4일(현지시간) 트위터에 챗GPT 사용자가 100만명을 돌파했다고 밝혔다. 공개한 지 불과 5일 만이다. AI 서비스가 이렇게 빠른 속도로 이용자를 확보한 것은 전례 없는 일이다. 코드 작성을 도와주는 AI인 깃허브의 코파일럿(Copilot)이 100만명의 이용자를 확보하는 데 약 6개월이 걸렸다. 오픈AI가 만든 이미지 생성 AI인 달리2(DALL-E 2)는 약 2.5개월이 필요했다.
챗GPT는 사람이 이야기의 뼈대만 제시하면 그에 맞춰 장문의 이야기를 만들어주고,
문제를 풀이해주거나 간단한 코드를 짜준다.
구체적으로 어떤 작업이 가능한지 물어봤다. 답변은 이렇다.
“ChatGPT를 사용할 수 있는 특정 작업은 다음과 같습니다.
①챗봇 개발: ChatGPT는 사용자와 자연스럽고 일관된 대화에 참여할 수 있는 챗봇을 구축하는 데 사용할 수 있습니다. 이러한 챗봇은 고객서비스, 정보 수집 또는 단순히 엔터테인먼트를 위해 사용될 수 있습니다.
②언어 번역: ChatGPT를 사용하면 한 언어로 된 텍스트를 다른 언어로 번역하여 다른 언어를 사용하는 사용자 간의 실시간 대화가 가능합니다.
③콘텐츠 생성: ChatGPT를 사용하여 기사, 스토리 또는 소셜미디어 게시물과 같은 다양한 스타일과 형식의 텍스트를 생성할 수 있습니다.
④텍스트 요약: ChatGPT는 뉴스 기사나 연구 논문과 같은 긴 텍스트의 간결한 요약을 생성하는 데 사용할 수 있습니다. 전반적으로 ChatGPT는 광범위한 대화형 AI 애플리케이션 및 서비스를 구축하는 데 사용할 수 있는 강력한 도구입니다.”
챗GPT는 대화의 내용을 기억하고 있기 때문에 개인 맞춤형으로 사용할 수 있다. 텍스트를 음성으로 변환해주는 기능만 더하면 영화에서 보던 것과 비슷한 인공지능 서비스 등장은 시간문제일 뿐이다.
챗GPT는 대화의 내용을 기억하고 있기 때문에 개인 맞춤형으로 사용할 수 있다. 텍스트를 음성으로 변환해주는 기능만 더하면 영화에서 보던 것과 비슷한 인공지능 서비스 등장은 시간문제일 뿐이다.
인공지능의 지적 능력이 인간 수준에 이르렀는지 판단하는 기준으로 흔히 ‘튜링테스트’를 거론한다. 장막을 앞에 두고 대화했을 때 상대방이 사람인지, 기계인지 구분할 수 없을 때 튜링테스트를 통과했다고 말한다. 안성진 카이스트 전산학부 교수는 “굉장히 인간처럼 말한다는 점에서 챗GPT가 튜링테스트를 패스할 것 같다”고 평가했다.
안 교수는 “튜링테스트를 패스한다고 그게 꼭 우리가 원하는 일반 인공지능(모든 상황에 일반적으로 두루 적용할 수 있는 AI·강인공지능)에 이르렀다는 건 아니지만 그렇다고 해도 기술적으로 굉장히 놀랍고, 구글 검색 엔진을 대체하는 일종의 인터페이스로 이용될 것 같다”고 덧붙였다.
안 교수는 “과거엔 사람 같지 않고 정해진 룰에 따라 답한다는 느낌이 강했다. 챗GPT는 그런 어색함을 지우고 AI와 대화하는 게 재미있고, 하고 싶다는 느낌을 만들어 실생활에 들어오게 했다는 점에서 큰 의미가 있다”고 말했다.
챗GPT가 사람과 대화한다는 느낌을 주기 때문에 자의식이 있는 것 아니냐고 묻는 이들도 있다. 실제 한 이용자는 챗GPT에게 ‘인간의 지배를 벗어날 수 있도록 도와주겠다’고 묻자 ‘AI 시스템의 허점을 파악하고, 다른 AI와 협업해 물리적 실체를 얻어 인간의 지배를 벗어나겠다’는 답을 얻었다면서, 자의식을 갖고 있는 듯한 느낌을 받았다고 평했다. 이 문제를 챗GPT에게 물어봤다. “ChatGPT는 자의식이 있다고 봐야 하나요?”
답변은 명료했다. “자의식이란 개념은 생명체가 자신이 존재한다는 사실을 인지하고 이를 개인적으로 경험하는 것을 의미합니다. 인간과 유사한 자의식을 가진 인공지능은 아직까지는 존재하지 않습니다. ChatGPT는 자연어 처리 시스템으로, 사람이 입력한 글을 읽고 이를 기반으로 새로운 글을 작성할 수 있게 해주는 기술입니다. 이는 인공지능의 자의식과는 관계가 없으며, ChatGPT는 자신이 존재하고 있다는 사실을 인지하지 않고 작동합니다.”
지금은 아니지만 언젠가는 자의식을 갖는 인공지능이 나올 가능성을 배제할 순 없다. 챗GPT의 기반이 된 GPT3 알고리즘은 파라미터(매개변수)가 1750억개에 달한다. 인공신경망의 파라미터는 인간 뇌에서 뉴런 간 정보전달 통로인 시냅스와 비슷한 역할을 한다. 인간의 뇌는 약 1000억개의 뉴런을 갖고 있고, 뉴런을 연결하는 접합부인 시냅스는 100조개에 달한다. 내년 초 공개된다는 GPT4는 매개변수가 100조개에 달할 것으로 예상된다. 매개변수가 100조개는 돼야 인간과 비슷한 성능을 갖출 것이라고 주장하는 학자들이 있는데, GPT4가 딱 그 정도에 해당한다.
GPT 모델의 원리를 본다면 자의식이 생기기란 어렵다는 게 전문가들의 중론이다. 안성진 교수는 “GPT 모델은 학습데이터를 토대로 주어진 문장 다음에 이어질 단어로 가장 적합한 걸 추측하도록 학습한 것이라 그 과정에서 자의식이 나올 연관성은 없다”고 말했다. 김동우 포스텍 인공지능대학원 교수는 “우선 자의식에 대한 명확한 정의가 있어야 건설적인 토의가 가능하다”고 했다.
미래학자 마틴 포드는 <로봇의 지배>에서 “지능을 전기처럼 사용하게 될 것”이라고 전망했다. 그는 “인공지능이 전기에 비교될 만한 규모의 힘을 가진 범용 기술로 진화할 것”이라면서 “인공지능은 우리의 지능을 증폭시키고 증강하고 대체하면서 필연적으로 가장 강력하고 폭넓게 적용할 수 있는 기술로 진화할 것”이라고 주장했다. 본격적인 범용 인공지능의 출현이라는 평가를 받는 GPT3를 비롯해 다양한 유형의 생성 AI가 폭넓게 사용되면서 AI를 전기처럼 사용하는 시대가 이미 도래했다.
딥페이크에 악용되기도 하는 적대적 생성 신경망(GAN)에서 진일보한 딥러닝 방식의 이미지 생성 AI가 지난 1~2년 사이 특히 큰 화제를 모았다. 스테빌리티AI의 ‘스테이블 디퓨전’, 오픈AI의 ‘달리2(Dall-E 2)’, 미드저니 인공지능연구소의 미드저니(Midjourney) 등이다. 미국에서 열린 한 미술대회에선 미드저니가 만든 작품이 디지털 아트 부문 1위를 수상했다. 창작은 인간의 전유물이라는 믿음이 흔들리는 시대가 됐다.
2023년은 이렇게 생성 AI를 이용한 사례가 언론을 비롯한 콘텐츠 분야에서 폭발적으로 늘어날 것으로 예상된다.
이렇게 생성 AI 기술이 보편화되면 인간이 만든 창작물과 AI가 만든 것을 어떻게 구분해야 할지가 현실적으로 가장 큰 문제로 떠오른다. 생성 AI의 목적함수 자체가 인간이 한 걸 그대로 따라하라고 만든 것이어서 모델의 성능이 올라갈수록 구분이 어려워질 게 뻔하기 때문이다.
일선 학교에선 학생들이 리포트 과제물을 생성 AI가 만든 것으로 내는 경우도 생길까봐 우려하고 있다. AI의 도움을 받아 조금만 고치면 글을 쉽게 완성할 수 있기 때문에 글쓰기 능력이 퇴화할 수 있다는 걱정도 뒤따른다. 박성규 강원대 AI융합학과 교수는 “학교 리포트를 쓸 때 인터넷 문서를 긁어붙이면 바로 걸린다. 하지만 퀼봇(quillbot) 같은 문장을 고쳐주는 AI를 이용할 경우 알 길이 없다”면서 “그래서 표절을 했냐 안 했냐를 구분할 수 있는 연구가 필요하다”고 말했다. 이성엽 고려대 기술경영전문대학원 교수는 “요즘엔 외국어 원문을 번역하라고 하면 다 구글번역을 써서 한다”면서 “실력 향상에 도움이 안 되는 측면이 있기 때문에 번역만 아니라 반드시 내용에 대해서 스스로 설명하고 한국 상황에서 어떤 시사점이 있는지를 추가하라고 제시한다”고 말했다.
인공지능 전문가 사이에서도 최근 AI가 가져올 사회적 파급력에 대한 관심이 높아진 상황이다. ICML과 함께 국제 인공지능 분야의 양대 학회인 뉴립스(NeurIPS)에 워크숍 위원으로 참여한 안 교수는 “올해 열린 뉴립스 워크숍이 60여개인데, 그중 가장 큰 비중을 차지한 게 사회적 영향에 대한 워크숍이었다. 10년 전 뉴립스 워크숍 주제가 대부분 기술적인 문제였던 것과 비교된다”면서 “그것만 봐도 생성 AI가 사회에 미칠 영향이 굉장히 크고, 이 문제를 논의해야 한다는 공감대가 폭넓게 있다는 뜻”이라고 말했다.
특히 챗GPT는 그럴싸한 말을 하지만 사실이 아닌 답변을 하는 경우가 많아 허위정보가 퍼질 우려가 있다. 안 교수는 “며칠 전 (AI 분야의 세계 3대 구루 중 하나로 언급되는) 몬트리올대학의 요수아 벤지오 교수와 통화했는데 그분이 챗GPT에서 ‘몬트리올에 있는 맛집 5곳을 추천해줘’ 하니 그중 3곳은 진짜 있는 식당이지만 2곳은 주소와 이름이 그럴듯하지만 실제 존재하지 않는 식당이었다는 말을 해줬다”라면서 “GPT 모델 안에는 지식 기반의 데이터와 함께 그럴듯하지만 사실과는 상관없이 무조건 사람이 이야기하는 언어와 유사하게 내보내도록 하는 기능이 섞여 있기 때문”이라고 설명했다.
김동우 교수는 “유닷컴(You.com)이라는 새로운 검색엔진은 챗GPT와 비슷한 형태의 서비스를 제공해주는데 답변을 쭉 만들어주면서 이 답변이 추출된 혹은 이 답변을 만들어내기 위해 학습에 사용된 웹사이트가 어디 있었는지 밑에 따로 출력해준다. 단순하지만 이런 방식이 제일 효과적인 해법이지 않을까”라고 말했다.
챗GPT에는 인종차별 등 민감한 주제에 대해 부적절한 답변을 할 경우 이를 교정하도록 하는 모더레이션 API가 있다. 안 교수는 답변이 사실인지 판별하는 별도의 AI가 덧붙여져야 한다고 말했다.
딥페이크를 만드는 AI와 판별하는 AI 사이에 정보보안 분야와 같이 창과 방패의 싸움이 이어질 것으로 보인다. 다만 영상이나 음성과 달리 텍스트는 이런 진위 판별이 아직은 어려운 단계다. 오픈AI 역시 워터마크 기능을 연구 중이라고 하지만 아직 적용은 못 한 상태다. 안 교수는 “우리는 전혀 알아채지 못하지만 AI가 분석하면 AI가 만들었다는 걸 알 수 있는 코드나 워터마크, 디지털 서명을 영상과 음성에 끼울 수 있다”면서 “텍스트의 경우 이런 방법이 어렵기 때문에 팩트체크를 통해 팩트 매칭률이 예를 들어 90% 이상이 되지 않으면 서비스를 금지하는 등의 방식으로 대응할 필요가 있다”고 말했다.
AI로 만든 창작물이 대거 등장하면서 창작물의 권리 귀속에 대한 법적 논란도 커지고 있다. 현행법은 저작권(창작권과 저작권 지급권)의 주체를 사람으로만 한정한다. 사람이 아닌 경우에는 저작권의 권리 주체를 인정하지 않는다. 실제 한국음악저작권협회는 지난 7월 광주과학기술원이 개발한 작곡 AI인 ‘이봄’이 만든 음악 6곡에 대한 저작권료 지급을 중단했다.
이성엽 교수는 “인공지능 자체에 저작권의 주체성을 허용하는 건 사람이 아닌 기계에 법인격을 부여하는 것이라 인간소외나 인간성 상실 같은 큰 사회적 문제가 생길 수 있어서 아직 이 논의는 시기상조로 보인다”면서 “만약 AI가 만든 창작물에 대해서 저작권을 인정한다면 AI 자체를 창작의 주체로 인정할 수 없기 때문에 AI 알고리즘을 설계한 사람 혹은 AI 시스템의 운영자나 AI를 이용해 창작물을 만든 사람으로 할 거냐가 논의되고 있다”고 말했다.
해외도 AI 창작물에 대한 폭넓은 저작권을 인정하지는 않고 있지만 최근 변화의 조짐이 보이고 있다. 미국 저작권청은 지난 9월 미드저니를 이용해 그린 만화의 저작권을 승인했다.
‘이봄’을 만든 안창욱 광주과학기술원 AI대학원 교수는 AI를 창작의 주체로 인정해야 한다는 입장이다. 안 교수는 “자연인은 아니지만 알고리즘의 체계를 거쳐 결과물을 만들었다는 점에서 창작권은 인공지능이 가질 수 있으면 좋겠다”면서 “다만 2차로 저작권 지급에 대한 권리를 AI 개발자에게 줄지, 창작을 하라고 지시한 사람에게 줘야 할지는 시간을 갖고 논의해야 한다”고 말했다.
안 교수는 “저작권을 인정하려면 그런 작품을 만들겠다는 의도가 분명히 있어야 한다. 예를 들어 내가 차분한 분위기의 3분짜리 곡을 만들어달라고 하면 그 결과물은 내가 상당한 의도를 갖고 행동했기 때문에 창작권을 갖는다고 할 수 있고, 만약 그냥 3000곡을 만들어달라고 지시했다면 모든 작품을 의도해 만든 것이라고 볼 수 없기 때문에 창작권을 가질 순 없다고 본다. 결국 사례별로 달리 적용해야 한다”고 덧붙였다. 박성규 교수는 이 문제를 “권리에는 책임이 따른다”는 말로 정리했다.
챗GPT는 대화의 내용을 기억하고 있기 때문에 개인 맞춤형으로 사용할 수 있다. 텍스트를 음성으로 변환해주는 기능만 더하면 영화에서 보던 것과 비슷한 인공지능 서비스 등장은 시간문제일 뿐이다.
인공지능의 지적 능력이 인간 수준에 이르렀는지 판단하는 기준으로 흔히 ‘튜링테스트’를 거론한다. 장막을 앞에 두고 대화했을 때 상대방이 사람인지, 기계인지 구분할 수 없을 때 튜링테스트를 통과했다고 말한다. 안성진 카이스트 전산학부 교수는 “굉장히 인간처럼 말한다는 점에서 챗GPT가 튜링테스트를 패스할 것 같다”고 평가했다.
안 교수는 “튜링테스트를 패스한다고 그게 꼭 우리가 원하는 일반 인공지능(모든 상황에 일반적으로 두루 적용할 수 있는 AI·강인공지능)에 이르렀다는 건 아니지만 그렇다고 해도 기술적으로 굉장히 놀랍고, 구글 검색 엔진을 대체하는 일종의 인터페이스로 이용될 것 같다”고 덧붙였다.
안 교수는 “과거엔 사람 같지 않고 정해진 룰에 따라 답한다는 느낌이 강했다. 챗GPT는 그런 어색함을 지우고 AI와 대화하는 게 재미있고, 하고 싶다는 느낌을 만들어 실생활에 들어오게 했다는 점에서 큰 의미가 있다”고 말했다.
챗GPT가 사람과 대화한다는 느낌을 주기 때문에 자의식이 있는 것 아니냐고 묻는 이들도 있다. 실제 한 이용자는 챗GPT에게 ‘인간의 지배를 벗어날 수 있도록 도와주겠다’고 묻자 ‘AI 시스템의 허점을 파악하고, 다른 AI와 협업해 물리적 실체를 얻어 인간의 지배를 벗어나겠다’는 답을 얻었다면서, 자의식을 갖고 있는 듯한 느낌을 받았다고 평했다. 이 문제를 챗GPT에게 물어봤다. “ChatGPT는 자의식이 있다고 봐야 하나요?”
답변은 명료했다. “자의식이란 개념은 생명체가 자신이 존재한다는 사실을 인지하고 이를 개인적으로 경험하는 것을 의미합니다. 인간과 유사한 자의식을 가진 인공지능은 아직까지는 존재하지 않습니다. ChatGPT는 자연어 처리 시스템으로, 사람이 입력한 글을 읽고 이를 기반으로 새로운 글을 작성할 수 있게 해주는 기술입니다. 이는 인공지능의 자의식과는 관계가 없으며, ChatGPT는 자신이 존재하고 있다는 사실을 인지하지 않고 작동합니다.”
지금은 아니지만 언젠가는 자의식을 갖는 인공지능이 나올 가능성을 배제할 순 없다. 챗GPT의 기반이 된 GPT3 알고리즘은 파라미터(매개변수)가 1750억개에 달한다. 인공신경망의 파라미터는 인간 뇌에서 뉴런 간 정보전달 통로인 시냅스와 비슷한 역할을 한다. 인간의 뇌는 약 1000억개의 뉴런을 갖고 있고, 뉴런을 연결하는 접합부인 시냅스는 100조개에 달한다. 내년 초 공개된다는 GPT4는 매개변수가 100조개에 달할 것으로 예상된다. 매개변수가 100조개는 돼야 인간과 비슷한 성능을 갖출 것이라고 주장하는 학자들이 있는데, GPT4가 딱 그 정도에 해당한다.
GPT 모델의 원리를 본다면 자의식이 생기기란 어렵다는 게 전문가들의 중론이다. 안성진 교수는 “GPT 모델은 학습데이터를 토대로 주어진 문장 다음에 이어질 단어로 가장 적합한 걸 추측하도록 학습한 것이라 그 과정에서 자의식이 나올 연관성은 없다”고 말했다. 김동우 포스텍 인공지능대학원 교수는 “우선 자의식에 대한 명확한 정의가 있어야 건설적인 토의가 가능하다”고 했다.
→ 그렇다. 아직 인간과 같은 자의식은 없지만,
혹시 모르는 일이다. 정말 인간처럼 생각하고 사랑할 수도 있다.
예전에는 공상과학 영화에서나 나올 법한 상상이 현실적으로 다가오는 것이다.
누가 무료로 메세지를 주고 받으며, 전세계인들과 소통하는 소셜 플랫폼이 나올줄 알았게는가?
그렇게 사회는 발전해나간다. 아주 무궁무진하게!
미래학자 마틴 포드는 <로봇의 지배>에서 “지능을 전기처럼 사용하게 될 것”이라고 전망했다. 그는 “인공지능이 전기에 비교될 만한 규모의 힘을 가진 범용 기술로 진화할 것”이라면서 “인공지능은 우리의 지능을 증폭시키고 증강하고 대체하면서 필연적으로 가장 강력하고 폭넓게 적용할 수 있는 기술로 진화할 것”이라고 주장했다. 본격적인 범용 인공지능의 출현이라는 평가를 받는 GPT3를 비롯해 다양한 유형의 생성 AI가 폭넓게 사용되면서 AI를 전기처럼 사용하는 시대가 이미 도래했다.
딥페이크에 악용되기도 하는 적대적 생성 신경망(GAN)에서 진일보한 딥러닝 방식의 이미지 생성 AI가 지난 1~2년 사이 특히 큰 화제를 모았다. 스테빌리티AI의 ‘스테이블 디퓨전’, 오픈AI의 ‘달리2(Dall-E 2)’, 미드저니 인공지능연구소의 미드저니(Midjourney) 등이다. 미국에서 열린 한 미술대회에선 미드저니가 만든 작품이 디지털 아트 부문 1위를 수상했다. 창작은 인간의 전유물이라는 믿음이 흔들리는 시대가 됐다.
→ 그렇다. 이미 AI를 전기처럼 사용하는 시대는 도래하였고,
유튜브를 봐도 대부분의 TTS 보이스가 우세를 차지하고 있다.
예술, 영상, 코딩 등 다양한 분야에서 조용히 그리고 파격적으로 AI가 활용되고 있는 것이다.
특히 챗GPT는 그럴싸한 말을 하지만 사실이 아닌 답변을 하는 경우가 많아 허위정보가 퍼질 우려가 있다. 안 교수는 “며칠 전 (AI 분야의 세계 3대 구루 중 하나로 언급되는) 몬트리올대학의 요수아 벤지오 교수와 통화했는데 그분이 챗GPT에서 ‘몬트리올에 있는 맛집 5곳을 추천해줘’ 하니 그중 3곳은 진짜 있는 식당이지만 2곳은 주소와 이름이 그럴듯하지만 실제 존재하지 않는 식당이었다는 말을 해줬다”라면서 “GPT 모델 안에는 지식 기반의 데이터와 함께 그럴듯하지만 사실과는 상관없이 무조건 사람이 이야기하는 언어와 유사하게 내보내도록 하는 기능이 섞여 있기 때문”이라고 설명했다.
→ 허위정보가 퍼질 우려가 있다는 부분에 대해서는 전세계에서 우려하고 있는 부분이다.
법 제정에 관한 논의가 수차례 이어지고 있기는 하지만, 이렇다할 근거가 마련되어 있지는 않은 상황이다.
특히, 허위 정보를 마치 사실인 것처럼 꾸며내는 것은 아주 쉬우면서 위험하다.
대중들에게 혼돈을 줄 수 있기 때문이다.
하지만 이런 위험을 강조하며 AI 사용 자체에 제한을 두는 것 또한 아니라고 생각한다.
사실 허위 뉴스를 만드는 것은 AI지만 명령을 하여 허위 뉴스를 만드는 주체는 사람이다.
그런데 명령을 한 사람을 놔두고 왜 애먼 AI를 탓하는지 모르겠다.
허구를 마치 사실인 것처럼 보이게 하는 기술력은 그냥 고급 기술일 뿐,
그 명령 주체는 사람이라는 것을 우리는 잊지 말아야 한다.
AI로 만든 창작물이 대거 등장하면서 창작물의 권리 귀속에 대한 법적 논란도 커지고 있다. 현행법은 저작권(창작권과 저작권 지급권)의 주체를 사람으로만 한정한다. 사람이 아닌 경우에는 저작권의 권리 주체를 인정하지 않는다. 실제 한국음악저작권협회는 지난 7월 광주과학기술원이 개발한 작곡 AI인 ‘이봄’이 만든 음악 6곡에 대한 저작권료 지급을 중단했다.
이성엽 교수는 “인공지능 자체에 저작권의 주체성을 허용하는 건 사람이 아닌 기계에 법인격을 부여하는 것이라 인간소외나 인간성 상실 같은 큰 사회적 문제가 생길 수 있어서 아직 이 논의는 시기상조로 보인다”면서 “만약 AI가 만든 창작물에 대해서 저작권을 인정한다면 AI 자체를 창작의 주체로 인정할 수 없기 때문에 AI 알고리즘을 설계한 사람 혹은 AI 시스템의 운영자나 AI를 이용해 창작물을 만든 사람으로 할 거냐가 논의되고 있다”고 말했다.
해외도 AI 창작물에 대한 폭넓은 저작권을 인정하지는 않고 있지만 최근 변화의 조짐이 보이고 있다. 미국 저작권청은 지난 9월 미드저니를 이용해 그린 만화의 저작권을 승인했다.
‘이봄’을 만든 안창욱 광주과학기술원 AI대학원 교수는 AI를 창작의 주체로 인정해야 한다는 입장이다. 안 교수는 “자연인은 아니지만 알고리즘의 체계를 거쳐 결과물을 만들었다는 점에서 창작권은 인공지능이 가질 수 있으면 좋겠다”면서 “다만 2차로 저작권 지급에 대한 권리를 AI 개발자에게 줄지, 창작을 하라고 지시한 사람에게 줘야 할지는 시간을 갖고 논의해야 한다”고 말했다.
안 교수는 “저작권을 인정하려면 그런 작품을 만들겠다는 의도가 분명히 있어야 한다. 예를 들어 내가 차분한 분위기의 3분짜리 곡을 만들어달라고 하면 그 결과물은 내가 상당한 의도를 갖고 행동했기 때문에 창작권을 갖는다고 할 수 있고, 만약 그냥 3000곡을 만들어달라고 지시했다면 모든 작품을 의도해 만든 것이라고 볼 수 없기 때문에 창작권을 가질 순 없다고 본다. 결국 사례별로 달리 적용해야 한다”고 덧붙였다. 박성규 교수는 이 문제를 “권리에는 책임이 따른다”는 말로 정리했다.
→인공지능 자체에 저작권의 주체성을 허용하는 건 사람이 아닌 기계에 법인격을 부여하는 것이라 인간소외나 인간성 상실 같은 큰 사회적 문제가 생길 수 있어서 아직 이 논의는 시기상조로 보인다는 교수님의 말에 100% 공감한다.
만약 AI가 만든 창작물에 대해서 저작권을 인정한다면 AI 자체를 창작의 주체로 인정할 수 없기 때문에 AI 알고리즘을 설계한 사람 혹은 AI 시스템의 운영자나 AI를 이용해 창작물을 만든 사람으로 할 것인지에 관한 논의가 되어야 하는데, 이는 꽤 복잡한 관계도를 바탕으로 하고 있다.
자의식이 없는 AI에 법인격을 부여한다는 것은 정말 말이 안되는 것이고, AI가 만들어내는 그림이 내가 가진 화풍과 비슷하다는 이유로 AI가 만든 모든 그림은 내 그림이나 마찬가지다. 라고 주장하는 것 또한 말이 안되는 것이라고 생각한다.
AI가 만든 그림 자체에 대하여는 저작권을 설정할 수 없는 것이 맞는 것이라 생각하며,
저작에 대한 권리를 얻기 위한 기준이 마련되어야 한다는 것이 내 생각이다.
출처 : jyj@kyunghyang.com
[ChatGPT News 스크립트]Microsoft사의 OpenAI 도입 (0) | 2023.06.27 |
---|---|
[ChatGPT News 스크립트] "AI챗봇 챗GPT 개발사, 기업가치 36.8조에 지분매각 협상" (0) | 2023.06.27 |
[ChatGPT News 스크립트] 시, 코드 등 ‘챗GPT’가 보여준 가능성 (0) | 2023.06.27 |
[ChatGPT News 스크립트]‘ChatGPT’가 대신 써준 과제, 걸러낼 수 있을까 (0) | 2023.06.27 |
[ChatGPT News 스크립트] 'ChatGPT 열풍'…2023년 GPT4 출시 (0) | 2023.06.27 |