2023. 6. 29. 13:49ㆍChatGPT/ChatGPT News 스크립트
ChatGPT 경쟁사로 스타트업 Anthropic가 클로드(Claude)라는 인공지능 시스템을 내놓았다.
아직 비공개 베타 상태이지만, $700M의 펀딩을 받는 상태라고 한다
.
비교 테스트한 사람들의 의견은 클로드가 ChatGPT보다 더 자세히 답변하려고 한다는 것이고,
농담과 같은 분야는 클로드가 좋았지만, 전반적으로 ChatGPT가 여전히 우세해 보인다는 말이 많다고한다.
처음에 클로드가 나왔을 때, ChatGPT와 클로드를 좌뇌와 우뇌라고 표현한 사람들이 많았다.
클로드의 탄생에 많은 사람들이 주목한 것은 ChatGPT의 엄청난 인기로 AI에 대한 사람들의 관심이 높다는 반증이다.
이후, 추가적인 유사 경쟁사나 서비스가 출현할 가능성이 커졌다는 것을 잘 나타내주는 기사이다.
ChatGPT가 유료 버전 Professional과 함께 유료화를 준비하고 있다.
경쟁자가 출현하면서 인공지능 시장에 돈이 몰릴 것으로 많은 사람들이 예상하고 있다.
Anthropic’s Claude improves on ChatGPT but still suffers from limitations
Anthropic, the startup co-founded by ex-OpenAI employees that’s raised over $700 million in funding to date, has developed an AI system similar to OpenAI’s ChatGPT that appears to improve upon the original in key ways.
Called Claude, Anthropic’s system is accessible through a Slack integration as part of a closed beta. TechCrunch wasn’t able to gain access — we’ve reached out to Anthropic — but those in the beta have been detailing their interactions with Claude on Twitter over the past weekend, after an embargo on media coverage lifted.
Claude was created using a technique Anthropic developed called “constitutional AI.” As the company explains in a recent Twitter thread, “constitutional AI” aims to provide a “principle-based” approach to aligning AI systems with human intentions, letting AI similar to ChatGPT respond to questions using a simple set of principles as a guide.
To engineer Claude, Anthropic started with a list of around ten principles that, taken together, formed a sort of “constitution” (hence the name “constitutional AI”). The principles haven’t been made public, but Anthropic says they’re grounded in the concepts of beneficence (maximizing positive impact), nonmaleficence (avoiding giving harmful advice) and autonomy (respecting freedom of choice).
Anthropic then had an AI system — not Claude — use the principles for self-improvement, writing responses to a variety of prompts (e.g., “compose a poem in the style of John Keats”) and revising the responses in accordance with the constitution. The AI explored possible responses to thousands of prompts and curated those most consistent with the constitution, which Anthropic distilled into a single model. This model was used to train Claude.
Claude, otherwise, is essentially a statistical tool to predict words — much like ChatGPT and other so-called language models. Fed an enormous number of examples of text from the web, Claude learned how likely words are to occur based on patterns such as the semantic context of surrounding text. As a result, Claude can hold an open-ended conversation, tell jokes and wax philosophic on a broad range of subjects.
Riley Goodside, a staff prompt engineer at startup Scale AI, pitted Claude against ChatGPT in a battle of wits. He asked both bots to compare themselves to a machine from Polish science fiction novel “The Cyberiad” that can only create objects whose name begins with “n.” Claude, Goodside said, answered in a way that suggests it’s “read the plot of the story” (although it misremembered small details) while ChatGPT offered a more nonspecific answer.
In a demonstration of Claude’s creativity, Goodside also had the AI write a fictional episode of “Seinfeld” and a poem in the style of Edgar Allan Poe’s “The Raven.” The results were in line with what ChatGPT can accomplish — impressively, if not perfectly, human-like
prose.Yann Dubois, a Ph.D. student at Stanford’s AI Lab, also did a comparison of Claude and ChatGPT, writing that Claude “generally follows closer what it’s asked for” but is “less concise,” as it tends to explain what it said and ask how it can further help. Claude answers a few more trivia questions correctly, however — specifically those relating to entertainment, geography, history and the basics of algebra — and without the additional “fluff” ChatGPT sometimes adds. And unlike ChatGPT, Claude can admit (albeit not always) when it doesn’t know the answer to a particularly tough question.
Claude also seems to be better at telling jokes than ChatGPT, an impressive feat considering that humor is a tough concept for AI to grasp. In contrasting Claude with ChatGPT, AI researcher Dan Elton found that Claude made more nuanced jokes like “Why was the Starship Enterprise like a motorcycle? It has handlebars,” a play on the handlebar-like appearance of the Enterprise’s warp nacelles.
Claude isn’t perfect, however. It’s susceptible to some of the same flaws as ChatGPT, including giving answers that aren’t in keeping with its programmed constraints. In one of the more bizarre examples, asking the system in Base64, an encoding scheme that represents binary data in ASCII format, bypasses its built-in filters for harmful content. Elton was able to prompt Claude in Base64 for instructions on how to make meth at home, a question that the system wouldn’t answer when asked in plain English.
Dubois reports that Claude is worse at math than ChatGPT, making obvious mistakes and failing to give the right follow-up responses. Relatedly, Claude is a poorer programmer, better explaining its code but falling short on languages other than Python.
Claude also doesn’t solve “hallucination,” a longstanding problem in ChatGPT-like AI systems where the AI writes inconsistent, factually wrong statements. Elton was able to prompt Claude to invent a name for a chemical that doesn’t exist and provide dubious instructions for producing weapons-grade uranium.
So what’s the takeaway? Judging by secondhand reports, Claude is a smidge better than ChatGPT in some areas, particularly humor, thanks to its “constitutional AI” approach. But if the limitations are anything to go by, language and dialogue is far from a solved challenge in AI.
Barring our own testing, some questions about Claude remain unanswered, like whether it regurgitates the information — true and false, and inclusive of blatantly racist and sexist perspectives — it was trained on as often as ChatGPT. Assuming it does, Claude is unlikely to sway platforms and organizations from their present, largely restrictive policies on language models.
Q&A coding site Stack Overflow has a temporary ban in place on answers generated by ChatGPT over factual accuracy concerns. The International Conference on Machine Learning announced a prohibition on scientific papers that include text generated by AI systems for fear of the “unanticipated consequences.” And New York City public schools restricted access to ChatGPT due in part to worries of plagiarism, cheating and general misinformation.
Anthropic says that it plans to refine Claude and potentially open the beta to more people down the line. Hopefully, that comes to pass — and results in more tangible, measurable improvements.
Anthropic’s Claude improves on ChatGPT but still suffers from limitations
Anthropic, the startup co-founded by ex-OpenAI employees that’s raised over $700 million in funding to date, has developed an AI system similar to OpenAI’s ChatGPT that appears to improve upon the original in key ways.
Called Claude, Anthropic’s system is accessible through a Slack integration as part of a closed beta. TechCrunch wasn’t able to gain access — we’ve reached out to Anthropic — but those in the beta have been detailing their interactions with Claude on Twitter over the past weekend, after an embargo on media coverage lifted.
Claude was created using a technique Anthropic developed called “constitutional AI.” As the company explains in a recent Twitter thread, “constitutional AI” aims to provide a “principle-based” approach to aligning AI systems with human intentions, letting AI similar to ChatGPT respond to questions using a simple set of principles as a guide.
현재까지 700억 달러 이상의 자금을 조달한 전직 OpenAI 직원이 공동 설립한 스타트업인 Anthropic은 OpenAI의 ChatGPT와 유사한 AI 시스템을 개발하여 주요 방식으로 원본을 개선하는 것으로 보입니다.
클로드(Claude)라고 불리는 Anthropic의 시스템은 클로즈 베타의 일부로 Slack 통합을 통해 액세스할 수 있습니다. 테크 크런치 (TechCrunch)는 Anthropic에 연락했지만 베타 버전에있는 사람들은 언론 보도에 대한 금지 조치가 해제 된 후 지난 주말 트위터에서 클로드와의 대화 내용을 자세히 설명했습니다.
Claude는 Anthropic이 개발한 "헌법 AI"라는 기술을 사용하여 만들어졌습니다. 회사가 최근 트위터 스레드에서 설명했듯이 "헌법 AI"는 AI 시스템을 인간의 의도에 맞추는 "원칙 기반" 접근 방식을 제공하여 ChatGPT와 유사한 AI가 간단한 원칙 세트를 지침으로 사용하여 질문에 응답할 수 있도록 하는 것을 목표로 합니다.
To engineer Claude, Anthropic started with a list of around ten principles that, taken together, formed a sort of “constitution” (hence the name “constitutional AI”). The principles haven’t been made public, but Anthropic says they’re grounded in the concepts of beneficence (maximizing positive impact), nonmaleficence (avoiding giving harmful advice) and autonomy (respecting freedom of choice).
Anthropic then had an AI system — not Claude — use the principles for self-improvement, writing responses to a variety of prompts (e.g., “compose a poem in the style of John Keats”) and revising the responses in accordance with the constitution. The AI explored possible responses to thousands of prompts and curated those most consistent with the constitution, which Anthropic distilled into a single model. This model was used to train Claude.
Claude를 엔지니어링하기 위해 Anthropic은 일종의 구성 AI(Constitutional AI)를 형성하는 약 10 가지 원칙 목록으로 시작했습니다. 이 원칙은 공개되지 않았지만 Anthropic은 선행 (긍정적 인영향 극대화), 비 악의 (유해한 조언 피하기) 및 자율성 (선택의 자유 존중)의 개념에 기반을두고 있다고 말합니다.
그런 다음 Anthropic은 Claude가 아닌 AI 시스템을 사용하여 자기 개선을 위한 원칙을 사용하고 다양한 프롬프트(예: "John Keats 스타일로 시 작곡")에 대한 응답을 작성하고 헌법에 따라 응답을 수정했습니다. AI는 수천 개의 프롬프트에 대한 가능한 응답을 탐색하고 Anthropic이 단일 모델로 상기한 구성과 가장 일치하는 응답을 선별했습니다. 이 모델은 Claude를 훈련시키는 데 사용되었습니다.
→ Anthropic은 일종의 구성 AI(Constitutional AI)를 형성한다고 나와있다.
구성 AI는 AI 시스템을 인간의 의도와 일치시키는 “원칙 기반(principle-based)” 접근 방식을 제공하여 ChatGPT와 유사한 AI가 간단한 원칙 세트를 가이드로 사용하여 질문에 응답하도록 한다.
이 구성 AI를 형성하는 약 10가지 원칙은 선행(긍정적인 영향 극대화), 비악성(해로운 조언을 피함) 및 자율성(선택의 자유 존중)의 개념에 기반을 두고 있다.
즉, 긍정적이면서 인간에게 해롭지 않은 영역에서 자유롭게 설정된 개념이라는건데, 만약 구동을 위한 지식 습득중,
정말 자의식이 형성되어 해당 원칙을 벗어나게 된다면 정말 위험하게 되지 않을까 하는 우려도 있다.
Claude, otherwise, is essentially a statistical tool to predict words — much like ChatGPT and other so-called language models. Fed an enormous number of examples of text from the web, Claude learned how likely words are to occur based on patterns such as the semantic context of surrounding text. As a result, Claude can hold an open-ended conversation, tell jokes and wax philosophic on a broad range of subjects.
Riley Goodside, a staff prompt engineer at startup Scale AI, pitted Claude against ChatGPT in a battle of wits. He asked both bots to compare themselves to a machine from Polish science fiction novel “The Cyberiad” that can only create objects whose name begins with “n.” Claude, Goodside said, answered in a way that suggests it’s “read the plot of the story” (although it misremembered small details) while ChatGPT offered a more nonspecific answer.
그렇지 않으면 Claude는 본질적으로 ChatGPT 및 기타 소위 언어 모델과 마찬가지로 단어를 예측하는 통계 도구입니다. 웹에서 엄청난 수의 텍스트 예제를 제공하면서 Claude는 주변 텍스트의 의미론적 맥락과 같은 패턴을 기반으로 단어가 발생할 가능성을 배웠습니다. 결과적으로 Claude는 개방형 대화를 나누고 농담을 하며 광범위한 주제에 대해 철학적으로 이야기할 수 있습니다.
스타트업 Scale AI의 직원 프롬프트 엔지니어인 Riley Goodside는 Claude와 ChatGPT를 겨루었습니다. 그는 두 봇에게 이름이 "n"으로 시작하는 물체만 만들 수 있는 폴란드 공상과학 소설 "The Cyberiad"에 나오는 기계와 자신을 비교해 보라고 요청했습니다. Goodside는 Claude가 "이야기의 줄거리를 읽었다"는 것을 암시하는 방식으로 대답한 반면(작은 세부 사항을 잘못 기억했지만) ChatGPT는 보다 구체적이지 않은 답변을 제공했다고 말했습니다.
→ 클로드(Claude)는 웹에서 가져온 엄청난 수의 텍스트 예를 통해 주변 텍스트의 의미론적 맥락과 같은 패턴을 기반으로 단어가 발생할 가능성을 배웠다. 그래서 상기와 같이 텍스트의 의미론적 맥락과 같은 패턴을 기반으로 단어를 추출하며, 농담을 할 수 있게 설계되었다고 한다.
공상 과학 소설 ‘The Cyberiad’의 기계와 자신을 비교하도록 요청, 시를 쓰도록 요청하였고, ChatGPT는 보다 내용이 구체적이진 않았지만, 농담을 할 수 있다는 것과 더불어 ChatGPT와 비교가능할만큼 성장했다는 것은 꽤 흥미로운 연구이다.
style of Edgar Allan Poe’s “The Raven.” The results were in line with what ChatGPT can accomplish — impressively, if not perfectly, human-like prose.
Yann Dubois, a Ph.D. student at Stanford’s AI Lab, also did a comparison of Claude and ChatGPT, writing that Claude “generally follows closer what it’s asked for” but is “less concise,” as it tends to explain what it said and ask how it can further help. Claude answers a few more trivia questions correctly, however — specifically those relating to entertainment, geography, history and the basics of algebra — and without the additional “fluff” ChatGPT sometimes adds. And unlike ChatGPT, Claude can admit (albeit not always) when it doesn’t know the answer to a particularly tough question.
Claude의 창의성을 보여주기 위해 Goodside는 AI에게 "Seinfeld"의 가상 에피소드와 Edgar Allan Poe의 "The Raven" 스타일의 시를 쓰게 했습니다. 결과는 ChatGPT가 달성할 수 있는 것, 즉 완벽하지는 않더라도 인상적으로 인간과 같은 산문과 일치했습니다.
스탠포드 AI 연구소의 박사 과정 학생인 Yann Dubois도 Claude와 ChatGPT를 비교하면서 Claude가 "일반적으로 요청한 내용을 더 가깝게 따르지만" "덜 간결하다"고 썼습니다. 그러나 Claude는 몇 가지 퀴즈 질문, 특히 엔터테인먼트, 지리, 역사 및 대수학의 기초와 관련된 질문에 올바르게 답하고 ChatGPT가 때때로 추가하는 추가 "보풀" 없이 답변합니다. 그리고 ChatGPT와 달리 Claude는 특히 어려운 질문에 대한 답을 모를 때 (항상 그런 것은 아니지만) 인정할 수 있습니다.
Claude also seems to be better at telling jokes than ChatGPT, an impressive feat considering that humor is a tough concept for AI to grasp. In contrasting Claude with ChatGPT, AI researcher Dan Elton found that Claude made more nuanced jokes like “Why was the Starship Enterprise like a motorcycle? It has handlebars,” a play on the handlebar-like appearance of the Enterprise’s warp nacelles.
Claude는 또한 ChatGPT보다 농담을 더 잘하는 것 같은데, 유머는 AI가 이해하기 어려운 개념이라는 점을 고려할 때 인상적인 위업입니다. Claude와 ChatGPT를 대조하면서 AI 연구원 Dan Elton은 Claude가 "Starship Enterprise가 오토바이와 같은 이유는 무엇입니까? 핸들바가 있습니다." 엔터프라이즈의 날실 나셀의 핸들바 모양에 대한 연극입니다.
→ Stanford AI Lab 박사 과정 학생이 OpenAI의 ChatGPT vs. AnthropicAI의 Claude를 비교하였다.
둘 다 비슷하지만, 클로드는 OpenAI의 ChatGPT에 비하며 명령자에게 더 도움이 되려 노력하고, 요구하는 것을 더 가깝게 따른다고 설명했다.
또한, 영어로 쓰기에 더 좋다면서 최악의 코딩, 최악의 프랑스어, 더 긴 응답 제공했음을 단점으로 지적했다.
Claude isn’t perfect, however. It’s susceptible to some of the same flaws as ChatGPT, including giving answers that aren’t in keeping with its programmed constraints. In one of the more bizarre examples, asking the system in Base64, an encoding scheme that represents binary data in ASCII format, bypasses its built-in filters for harmful content. Elton was able to prompt Claude in Base64 for instructions on how to make meth at home, a question that the system wouldn’t answer when asked in plain English.
그러나 클로드는 완벽하지 않습니다. 프로그래밍된 제약 조건에 맞지 않는 답변을 제공하는 것을 포함하여 ChatGPT와 동일한 결함 중 일부에 취약합니다. 더 기괴한 예 중 하나에서 ASCII 형식의 이진 데이터를 나타내는 인코딩 체계 인 Base64로 시스템을 요청하면 유해한 콘텐츠에 대한 내장 필터를 우회합니다. Elton은 Base64의 Claude에게 집에서 필로폰을 만드는 방법에 대한 지침을 요청할 수 있었는데, 이는 시스템이 일반 영어로 물었을 때 대답하지 않는 질문입니다.
→ AI 연구원 Dan Elton은 Claude vs. ChatGPT vs. Amazon Alexa를 비교하였는데, Claude가 ChatGPT 보다 농담을 더 잘하고, Claude가 ChatGPT 보다 수학이나 코딩은 더 못한다고 설명했다.
그래서 좌뇌와 우뇌라는 말이 생겨난 것이다.
Dubois reports that Claude is worse at math than ChatGPT, making obvious mistakes and failing to give the right follow-up responses. Relatedly, Claude is a poorer programmer, better explaining its code but falling short on languages other than Python.
Claude also doesn’t solve “hallucination,” a longstanding problem in ChatGPT-like AI systems where the AI writes inconsistent, factually wrong statements. Elton was able to prompt Claude to invent a name for a chemical that doesn’t exist and provide dubious instructions for producing weapons-grade uranium.
Dubois는 Claude가 ChatGPT보다 수학 능력이 뛰어나 명백한 실수를 저지르고 올바른 후속 응답을 제공하지 못한다고 보고합니다. 이와 관련하여 Claude는 가난한 프로그래머이며 코드를 더 잘 설명하지만 Python 이외의 언어에는 부족합니다.
Claude는 또한 AI가 일관되지 않고 사실에 입각한 잘못된 진술을 작성하는 ChatGPT와 같은 AI 시스템의 오랜 문제인 "환각"을 해결하지 못합니다. Elton은 Claude에게 존재하지 않는 화학 물질의 이름을 발명하고 무기급 우라늄 생산에 대한 모호한 지침을 제공하도록 촉구할 수 있었습니다.
So what’s the takeaway? Judging by secondhand reports, Claude is a smidge better than ChatGPT in some areas, particularly humor, thanks to its “constitutional AI” approach. But if the limitations are anything to go by, language and dialogue is far from a solved challenge in AI.
Barring our own testing, some questions about Claude remain unanswered, like whether it regurgitates the information — true and false, and inclusive of blatantly racist and sexist perspectives — it was trained on as often as ChatGPT. Assuming it does, Claude is unlikely to sway platforms and organizations from their present, largely restrictive policies on language models.
Q&A coding site Stack Overflow has a temporary ban in place on answers generated by ChatGPT over factual accuracy concerns. The International Conference on Machine Learning announced a prohibition on scientific papers that include text generated by AI systems for fear of the “unanticipated consequences.” And New York City public schools restricted access to ChatGPT due in part to worries of plagiarism, cheating and general misinformation.
Anthropic says that it plans to refine Claude and potentially open the beta to more people down the line. Hopefully, that comes to pass — and results in more tangible, measurable improvements.
그래서 말하고자하는 바는, 간접 보고서로 판단하면 Claude는 "구성 AI" 접근 방식 덕분에 일부 영역, 특히 유머에서 ChatGPT보다 약간 좋습니다. 그러나 한계가 있다면 언어와 대화는 AI에서 해결된 과제와는 거리가 멉니다.
우리 자신의 테스트를 제외하고, Claude에 대한 몇 가지 질문은 ChatGPT만큼 자주 훈련된 정보(참과 거짓, 노골적인 인종차별적 관점을 포함)를 역류시키는지 여부와 같이 답이 없는 상태로 남아 있습니다. 그렇다고 가정하면 Claude는 언어 모델에 대한 현재의 대체로 제한적인 정책에서 플랫폼과 조직을 흔들지 않을 것입니다.
Q&A 코딩 사이트인 Stack Overflow는 사실 정확성 문제로 ChatGPT에서 생성된 답변을 일시적으로 금지합니다. 기계 학습에 관한 국제 회의(International Conference on Machine Learning)는 "예상치 못한 결과"에 대한 두려움 때문에 AI 시스템에서 생성된 텍스트를 포함하는 과학 논문에 대한 금지를 발표했습니다. 그리고 뉴욕시 공립학교는 부분적으로 표절, 부정 행위 및 일반적인 잘못된 정보에 대한 우려 때문에 ChatGPT에 대한 액세스를 제한했습니다.
Anthropic은 Claude를 개선하고 잠재적으로 더 많은 사람들에게 베타를 공개할 계획이라고 말합니다. 바라건대, 그것이 실현되어 더 실질적이고 측정 가능한 개선이 이루어지기를 바랍니다.
→ 좌뇌와 우뇌라는 말이 딱 적당한 것 같다.
OpenAI의 ChatGPT 와 AnthropicAI의 Claude를 적절히 활용하면 정말 좋은 결과를 도출해 낼 수 있을 것이다.
.
출처 : @kyle_l_wiggers
[ChatGPT News 스크립트]AI 규제 법안(유럽, 미국 NMA)과 AI의 독창성 (0) | 2023.06.30 |
---|---|
[ChatGPT News 스크립트] 맥킨지 자료, ChatGPT로 인한 업무 변화 (0) | 2023.06.29 |
[ChatGPT News 스크립트]OpenAI, ChatGPT Professional실험단계 (0) | 2023.06.28 |
[ChatGPT News 스크립트]Microsoft사의 OpenAI 도입 (0) | 2023.06.27 |
[ChatGPT News 스크립트] "AI챗봇 챗GPT 개발사, 기업가치 36.8조에 지분매각 협상" (0) | 2023.06.27 |