저자 | Sid @IOSG
웹3 게임의 현황
새롭고 더 주목받는 내러티브의 등장으로 웹3 게임은 산업으로서 뒷자리를 차지하게 되었습니다. 더 새롭고 주목을 끄는 내러티브가 등장하면서 웹3 게임은 주요 시장과 퍼블릭 시장 모두에서 내러티브에 밀려 산업으로서 뒷자리를 차지했습니다. 게임 산업에 대한 델파이의 2024년 보고서에 따르면, 1차 시장에서 웹3 게임의 누적 펀딩 금액은 10억 달러 미만입니다. 이는 반드시 나쁜 것은 아니며, 거품이 빠지고 이제 자본이 더 높은 품질의 게임으로 이동하고 있음을 보여줍니다. 다음 차트는 이를 명확하게 보여줍니다.

전체적으로 2024년, 로닌과 같은 게임 생태계는 페이블본과 같은 고품질 신작 게임 덕분에 사용자 기반이 급증하여 2021년 액시의 전성기와 거의 맞먹을 것으로 예상됩니다.

게임 에코시스템(L1, L2, RaaS)는 생태계 내에서 유통을 통제한다는 점에서 웹3.0의 스팀과 점점 더 닮아가고 있으며, 이는 게임 개발사에게 플레이어 확보에 도움이 되기 때문에 이러한 생태계에서 게임을 개발하는 인센티브가 되고 있습니다. 이전 보고서에 따르면 웹3 게임의 사용자 확보 비용은 웹2 게임보다 약 70% 더 높습니다.
플레이어 고착화
플레이어 유치만큼, 아니 그보다 더 중요한 것은 플레이어 유지입니다. 웹 3.0 게임의 플레이어 리텐션에 대한 데이터는 부족하지만, 플레이어 리텐션은 헝가리 심리학자 미할리 칙센트미할리가 만든 용어인 '흐름' 개념과 밀접한 관련이 있습니다.
유치만큼은 아니더라도 리텐션은 플레이어 유치만큼이나 중요합니다.
'흐름 상태'는 플레이어가 도전과 숙련도 사이의 완벽한 균형에 도달하는 심리적 개념입니다. 마치 '몰입 상태'에 도달하면 시간이 순식간에 지나가고 게임에 완전히 몰입하는 것과 같습니다.

스트림 상태를 지속적으로 생성하는 게임은 다음과 같은 메커니즘으로 인해 더 높은 리텐션률이 높은 경향이 있습니다:
#프로그레션 디자인
초기 게임: 자신감을 키우는 간단한 도전과제
초기 게임: 자신감을 키우는 쉬운 도전과제
게임 중반: 점차 난이도 증가
게임 후반: 복잡한 도전, 게임 숙달
플레이어의 실력이 향상됨에 따라 난이도 미세 조정을 통해 게임을 계속할 수 있습니다
플레이어의 실력이 향상됨에 따라 난이도를 미세 조정하여 게임의 최상위권에 머물 수 있도록 해줍니다. 난이도 조정을 통해 자신의 페이스를 유지할 수 있습니다
#참여 루프
단기: 즉각적인 피드백( 킬, 포인트, 보상)
중기: 레벨 완료, 일일 퀘스트
장기: 캐릭터 육성, 랭킹
이러한 중첩된 루프를 사용하면 는 다양한 시간대에 걸쳐 플레이어의 흥미를 유지할 수 있습니다
#흐름 상태를 방해할 수 있는 요소는 다음과 같습니다
1. 난이도 / 복잡도가 제대로 설정되지 않음: 게임 디자인이 잘못되었거나 플레이어 수 부족으로 인한 매치메이킹 불균형
2. 불명확한 목표: 게임 디자인 요소
3. 피드백 지연: 게임 디자인 및 기술 문제
4. 침입적 수익화: 게임 디자인 + 제품
5. 기술 문제/지연
< img src="https://img.jinse.cn/7199099_image3.png">
게임과 AI의 공생
AI 에이전트가 게임을 도울 수 있습니다. 왼쪽;">AI 에이전트는 플레이어가 이러한 흐름 상태를 달성하도록 도울 수 있습니다. 이를 달성하는 방법을 살펴보기 전에 게임 영역에서 사용하기에 적합한 에이전트의 종류를 이해해 보겠습니다.
LLM과 강화 학습
에이전트 및 NPC
게임 AI의 핵심은 속도와 규모입니다. 게임에서 LLM 기반 에이전트를 사용할 때는 모든 의사 결정에 대해 대규모 언어 모델을 호출해야 합니다. 마치 모든 단계를 수행하기 전에 중개자가 있는 것과 같습니다. 중개인은 똑똑하지만 그의 응답을 기다리면 모든 것이 고통스러울 정도로 느려집니다. 이제 게임 내 수백 명의 캐릭터에 대해 이 작업을 수행한다고 상상해 보세요. 느릴 뿐만 아니라 비용도 많이 듭니다. 이것이 바로 게임에서 대규모 LLM 프록시가 아직까지 등장하지 않은 주된 이유입니다. 지금까지 우리가 본 가장 큰 실험은 Minecraft에서 개발된 1,000명의 에이전트로 구성된 문명입니다. 여러 맵에 동시 접속하는 프록시가 100,000개라면 비용이 매우 많이 들 것입니다. 또한 플레이어는 새로운 에이전트가 추가될 때마다 발생하는 지연 시간으로 인해 흐름이 중단되는 문제를 겪게 됩니다. 이는 흐름 상태를 방해합니다.
강화 학습(RL)은 다른 접근 방식입니다. 헤드셋을 통해 서로에게 직접 지시를 내리는 것이 아니라 무용수를 훈련시킨다고 생각하면 됩니다. 강화 학습을 사용하면 AI에게 '춤추는 방법'과 게임 내 다양한 상황에 대처하는 방법을 미리 가르치는 데 시간을 투자해야 합니다. 일단 학습이 완료되면 AI는 자연스럽게 유동적으로 움직이며 상부에 요청할 필요 없이 몇 밀리초 만에 결정을 내립니다. 이렇게 훈련된 에이전트 수백 명을 게임에서 실행할 수 있으며, 각 에이전트는 보고 들은 것을 바탕으로 독립적으로 의사 결정을 내릴 수 있습니다. LLM 에이전트만큼 명확하거나 유연하지는 않지만 빠르고 효율적입니다.
RL의 진정한 마법은 이러한 에이전트가 함께 일해야 할 때 나타납니다. LLM 에이전트는 조정을 위해 긴 '대화'가 필요한 반면, RL 에이전트는 암묵적인 암묵적 이해를 개발하도록 훈련할 수 있습니다. -암묵적 이해를 발전시킬 수 있습니다. 서로의 움직임을 예측하고 자연스럽게 조율하는 방법을 배우게 됩니다. 물론 완벽하지는 않고 때때로 LLM이 하지 않는 실수를 저지르기도 하지만, LLM이 따라잡을 수 없는 규모로 운영할 수 있습니다. 게임 앱의 경우 이러한 절충안이 항상 합리적입니다.

LLM과 강화 학습
에이전트와 NPC
NPC 역할을 하는 에이전트는 오늘날 많은 게임이 직면한 첫 번째 핵심 문제인 플레이어 이동성을 해결할 수 있습니다. P2E는 플레이어의 이동성 문제를 해결하기 위해 암호경제학을 사용한 최초의 실험이며, 그 결과가 어떻게 나왔는지 우리 모두 잘 알고 있습니다.
사전 훈련된 에이전트는 두 가지 목적을 수행합니다.
이것은 매우 당연해 보이지만 구축하기는 어렵습니다. 인디 게임과 초기 웹 3.0 게임에는 AI 팀을 고용할 재정적 자원이 없기 때문에 RL에 중점을 둔 에이전트 프레임워크 제공업체에게 기회가 열려 있습니다.
게임사는 데모 및 테스트 중에 이러한 서비스 제공업체와 협력하여 게임 출시 시 플레이어 이동성을 위한 토대를 마련할 수 있습니다.
이러한 방식으로 게임 개발자는 게임 메커니즘에 집중하여 게임을 더욱 재미있게 만들 수 있습니다. 토큰을 게임에 통합하는 아이디어는 좋지만, 게임은 게임이고 게임은 재미있어야 합니다.
프록시 플레이어
메타버스의 귀환?
세계에서 가장 많이 플레이되는 게임 중 하나인 리그 오브 레전드에는 게임에서 금지하는 최고의 속성으로 캐릭터를 훈련시키는 암시장이 존재합니다.
이를 통해 게임 캐릭터와 속성의 기반이 되는 NFT가 형성되었고, 이를 위한 시장이 만들어졌습니다.
이러한 AI 에이전트의 코치로 새로운 '플레이어'가 등장한다면 어떨까요? 플레이어는 이러한 AI 에이전트를 코치하고 토너먼트 우승, e스포츠 선수나 열정적인 게이머의 '트레이닝 파트너' 역할 등 다양한 형태로 수익을 창출할 수 있습니다.
LLM과 강화 학습
메타버스의 귀환?
초기 버전의 메타버스는 이상적인 현실이 아닌 대체 현실을 만들었기 때문에 실패했을 수 있습니다.AI 에이전트는 메타버스의 주민들이 이상적인 세계인 탈출을 만들 수 있도록 도와주었습니다! .
제 생각에는 바로 이 부분에서 LLM 기반 에이전트가 큰 차이를 만들 수 있다고 생각합니다. 도메인 전문가이며 좋아하는 것에 대해 대화할 수 있는 사전 학습된 에이전트를 월드에 추가할 수 있을 것입니다. 1000시간의 엘론 머스크 인터뷰로 훈련된 에이전트를 만들고 사용자가 자신의 월드에서 그 에이전트의 인스턴스를 사용하고자 한다면 저는 그에 대한 보상을 받을 수 있습니다. 이는 새로운 경제를 창출합니다.
니프티 아일랜드와 같은 메타 유니버스 게임에서는 이런 일이 현실이 될 수 있습니다.
오늘: 더 게임에서 개발팀은 여러 에이전트가 자율적으로 상호작용하는 세상을 비전으로 "림보"(투기성 토큰 출시)라는 LLM 기반 AI 에이전트를 만들었습니다. 24시간 라이브 스트리밍을 시청할 수 있습니다.

암호는 어떻게 암호화폐에 적합할까요? Crypto?
암호는 다양한 방식으로 이러한 문제를 해결할 수 있습니다:
플레이어 더 나은 경험을 위해 자신의 게임 데이터를 제공하여 모델을 개선하고 이에 대한 보상을 받습니다
캐릭터 디자이너, 트레이너 등 여러 이해관계자와 협력하여 최고의 게임 내 에이전트를 제작합니다
게임 내 에이전트의 소유권을 가진 마켓플레이스 생성 및 수익화
이 모든 것을 수행하는 팀이 있습니다: 바로 ARC 에이전트입니다. 위에서 언급한 모든 문제를 해결하고 있는 팀입니다.
게임 개발자가 게임 파라미터를 기반으로 인간과 유사한 AI 에이전트를 만들 수 있는 ARC SDK를 보유하고 있습니다. 아주 간단한 통합으로 플레이어의 이동성 문제를 해결하고, 게임 데이터를 정리하여 인사이트로 전환하며, 난이도를 조정하여 플레이어가 게임의 흐름을 유지할 수 있도록 도와줍니다. 이를 위해 강화 학습 기법을 사용합니다.
처음에는 AI 아레나라는 게임을 개발했는데, 이 게임은 기본적으로 AI 캐릭터를 훈련시켜 싸우게 하는 게임입니다. 이를 통해 ARC SDK의 기초가 되는 기본 학습 모델을 만들 수 있었습니다. 이것은 일종의 DePIN과 같은 플라이휠을 생성합니다.

이 모든 것은 생태계 토큰 $NRN으로 조율됩니다. Chain of Thought 팀은 ARC 프록시에 대한 기사에서 이를 잘 설명합니다:

바운티와 같은 게임은 에이전트 우선 접근 방식을 취하여 와일드 웨스트 세계에서 처음부터 에이전트를 구축합니다.

결론
AI 에이전트, 게임 디자인, 암호화폐의 융합은 인디 게임을 괴롭히는 문제를 해결할 수 있는 잠재력을 가진 또 하나의 기술 트렌드가 아닙니다. 게임 분야에서 AI 에이전트의 장점은 게임의 재미를 향상시킨다는 점입니다! --선의의 경쟁, 풍부한 상호작용, 도전 과제를 통해 사람들이 계속 게임을 찾게 만드는 것입니다. ARC 에이전트와 같은 프레임워크가 발전하고 AI 에이전트를 통합하는 게임이 늘어나면서 완전히 새로운 게임 경험이 등장할 것입니다. 다른 플레이어가 아니라 커뮤니티와 함께 학습하고 진화할 수 있는 에이전트 덕분에 활기찬 세계를 상상해 보세요.
우리는 플레이를 통해 돈을 벌던 시대에서 진정으로 재미있고 무한히 확장 가능한 게임이라는 더 흥미진진한 시대로 나아가고 있습니다. 향후 몇 년은 이 분야를 바라보는 개발자, 게이머, 투자자들에게 매우 흥미로운 시기가 될 것이며, 2025년 이후의 게임은 기술적으로 더욱 발전할 뿐만 아니라 근본적으로 이전보다 더 매력적이고 접근성이 뛰어나며 실행 가능한 게임이 될 것입니다.