Sahara AI: The Decentralized Blockchain
Author: Stanford Blockchain Club
Source: https://review.stanfordblockchain.xyz/p/56-sahara-ai-the-decentralized-blockchain
AI: ChatGPT-o1-mini
Introduction
인공지능(AI)이 발전함에 따라, 우리는 AI가 단순히 유능하고 보편적인 수준을 넘어, 본질적으로 공정하고 평등하며 모든 이에게 접근 가능할 미래를 상상합니다. 이 미래에서 AI는 삶을 향상하고 전 세계적으로 기회의 평등을 촉진하는 보편적인 도구로 사용될 것입니다. 그러나 현재 AI 기술의 통제권은 소수의 과점적 조직에 주로 집중되어 있습니다. 이러한 중앙 집중식 AI 플랫폼은 프라이버시 문제, 경제적 격차의 심화, 자원 접근의 제한과 같은 중대한 한계와 위험을 동반합니다. 이는 광범위한 혁신을 저해하고 다양한 배경의 참여를 제한하며 다양한 커뮤니티에 AI 기술에 대한 접근을 제한하는 중대한 장벽을 형성합니다.
모든 사람이 AI의 미래를 소유하고 형성할 수 있도록 하기 위해, 우리는 Sahara AI를 구축하고 있습니다. Sahara AI는 개방적이고 투명하며 안전하고 포용적인 AI 생태계를 지원하는 탈중앙화된 AI 블록체인 플랫폼입니다. Sahara AI의 핵심은 "AI 자산"이라는 개념으로, 개인 데이터 및 독점 모델과 같은 사설 AI 자원의 소유권 및 관리 프로토콜을 정의하는 새로운 프레임워크입니다.
플랫폼에서 AI 개발자, 데이터 제공자 및 기타 이해 관계자는 플랫폼의 통합 개발 도구를 사용하여 고품질 AI 자산을 공동으로 생성할 수 있습니다. 이 과정에서 플랫폼은 모든 기여가 안전하게 기록되고 투명하게 귀속되도록 하며, 각 참가자의 기여도가 명확하게 추적 가능합니다. 일단 생성된 AI 자산은 플랫폼에서 사용자가 탐색하고 활용할 수 있도록 제공됩니다. 사용자는 접근 권한 구매, 추가 개발 또는 AI 자산의 지분 거래 등의 유연성을 가집니다. 그림 1은 Sahara AI 생태계 내에서 AI 자산이 생성에서 활용 및 사용자 참여로 이동하는 과정을 보여주는 사용자 여정의 개요를 제시합니다. 특히, 플랫폼 내 모든 거래는 변경 불가능하고 추적 가능하며, 소유권이 보호되고 자산의 기원이 기록됩니다. 이는 투명하고 공정한 수익 분배 모델을 지원하여 개발자와 데이터 제공자가 수익이 발생할 때마다 그들의 소중한 기여에 대해 적절한 보상을 받을 수 있도록 보장합니다.
Sahara AI는 블록체인 기술과 프라이버시 보호 방법을 모두 활용하여 AI 자산의 강력한 출처 추적 인프라를 개발합니다. 이 인프라는 사용자 기여의 귀속을 가능하게 하고, 데이터 프라이버시를 보호하며, 균등한 보상을 보장하는 동시에 사용자에게 AI 자산에 대한 통제권의 중요성을 강조합니다. 이러한 기능을 통해 Sahara AI는 플랫폼의 모든 AI 자산에 대해 고유한, 무허가의 "저작권" 시스템을 배포할 것입니다. "저작권"은 전통적으로 제한적인 통제를 의미하지만, Sahara AI의 접근 방식에 의해 재정의됩니다. 이는 기여자가 AI 자산의 소유권을 유지하면서도 그들의 작업에 대한 공정한 귀속과 보상을 보장하는 맞춤형 프레임워크를 의미하며, 접근과 공유를 제한하지 않습니다. 이 플랫폼은 데이터 수집 및 라벨링, 모델 교육 및 서비스, AI 에이전트 생성 및 배포, 다중 에이전트 통신, AI 자산 거래, AI 자원의 크라우드소싱 등 전체 AI 라이프사이클에 걸쳐 모든 AI 개발 요구를 위한 원스톱 샵 역할을 합니다. 기존 시스템에서 발견되는 진입 장벽을 낮추고 AI 개발 프로세스를 민주화함으로써, Sahara AI는 개인, 중소기업(SMB), 기업이 AI의 미래를 공동 구축할 수 있도록 동등한 접근성을 제공합니다.

Figure 1: Overview of user journey on the Sahara AI Platform. This diagram demonstrates the key stages in the AI asset lifecycle within the Sahara AI ecosystem. It highlights how developers and knowledge providers collaborate to create AI assets, which are then listed on the AI Marketplace for users to monetize, with all transactions recorded on-chain.
우리의 플랫폼은 탈중앙화된 거버넌스와 커뮤니티 주도의 혁신을 장려합니다. 이러한 접근 방식은 Sahara AI가 AI 커뮤니티의 진화하는 요구에 적응할 뿐만 아니라 윤리적이고 공정한 AI 관행의 새로운 기준을 설정하는 데 앞장서도록 합니다. Sahara AI는 AI 개발을 위한 협력 환경을 제공하여 개인, 중소기업(SMB), 기업이 함께 일하고 아이디어를 공유하며 글로벌 커뮤니티의 집단 지성과 창의성으로부터 혜택을 받을 수 있도록 합니다.
Sahara AI를 구축하는 여정에서 우리는 AI를 소수의 통제에서 벗어나 인류 전체를 위한 자원으로 변모시키는 데 전념하고 있습니다. Sahara AI 플랫폼을 통해 우리는 장벽을 허물고 글로벌 혁신을 촉진하며 AI의 잠재력을 전 세계 사회의 발전을 위해 최대한 활용하고자 합니다.
The Sahara AI Platform
Sahara AI 플랫폼은 주권과 출처, AI 유틸리티, 협력 경제라는 세 가지 기본 기둥 위에 구축되었습니다. 이 구성 요소들은 모든 참가자가 기여하고 협력하며 혜택을 받을 수 있는 통합된 플랫폼을 만듭니다.

Figure 2: Three foundational pillars of Sahara AI
Pillar 1: Sovereignty and Provenance
AI의 진화하는 환경에서 Sahara AI는 AI 자산과 그 개발 프로세스가 소유되고 관리되며 거버넌스되는 방식을 정의하는 주요 원칙으로 주권과 출처를 강조합니다. 이러한 개념은 데이터 수집 및 라벨링에서 모델 배포 및 애플리케이션 빌딩에 이르기까지 AI 개발 주기의 모든 단계가 탈중앙화되고 투명하며 포용적인 방식으로 수행되도록 보장합니다.
주권은 AI 자산의 소유권과 거버넌스가 탈중앙화되고 커뮤니티 주도로 이루어져야 한다는 아이디어를 포괄합니다. 이는 독점을 방지하고 모든 이해 관계자가 AI 라이프사이클에서 목소리를 낼 수 있도록 합니다. 반면 출처는 기여를 귀속하고 AI 자산의 사용 및 개발의 기원과 역사를 추적하는 투명성을 보장합니다. 이는 AI 자산과 관련된 모든 활동과 거래의 포괄적이고 변경 불가능한 기록을 제공하여 주권을 보완합니다.
Sahara AI는 주권과 출처의 다음과 같은 중요한 측면을 강조합니다:
- 소유권 및 귀속: AI 개발에 기여한 사람들(예: 데이터 제공자, 모델 트레이너, 애플리케이션 개발자)은 검증 가능한 온체인 소유권을 가지며 그들의 기여에 대해 공정한 귀속을 받습니다.
- 탈중앙화 및 거버넌스: Sahara AI는 AI 자산에 대한 공정하고 민주화된 통제를 촉진합니다. AI 자산에 대한 행동과 결정은 Sahara 블록체인 프로토콜과 DAO를 통해 투명하게 이루어지며, 모든 이해 관계자가 AI 개발 주기에서 발언권을 가질 수 있도록 합니다. 또한 플랫폼 내 AI 구성 요소의 진화는 커뮤니티에 의해 거버넌스되고 주도되어 지속적으로 진화하는 프레임워크를 허용합니다.
- 신뢰와 책임: 세부 기록 관리를 통해 AI 라이프사이클의 모든 데이터와 단계가 블록체인에 철저히 기록되고 추적 가능하여 이해 관계자가 데이터와 모델의 출처와 변환을 검증할 수 있습니다.
- 상호 운용성 및 접근성: AI 자산과 서비스는 다양한 플랫폼에서 상호 운용 가능하도록 설계되었으며, AI 생태계에 대한 포용성과 광범위한 참여를 촉진하기 위해 다양한 사용자에게 접근할 수 있습니다.
Pillar 2: AI Utility
Sahara AI는 포괄적인 기술 인프라를 활용하여 AI 라이프사이클의 다양한 단계에서 사용자를 지원함으로써 원활한 AI 사용자 경험을 제공합니다. 우리는 AI 개발 주기 내의 모든 참가자가 신뢰할 수 있고 프라이버시를 보호하며 안전한 환경에서 AI 자산을 효율적으로 개발, 배포 및 관리할 수 있도록 보장합니다.
우리의 플랫폼은 운영을 간소화하면서도 무단 접근 및 위협에 대한 강력한 보안 조치를 내장하고 있으며, 사용자 정보를 보호하는 포괄적인 프라이버시 보호 기능을 제공합니다. 이러한 기능은 사용자 데이터를 보호할 뿐만 아니라 사용자가 AI 기술과 자신 있게 안전하게 상호 작용할 수 있도록 신뢰를 구축합니다.
AI 개발 주기의 모든 단계에서 최대 유틸리티를 제공하기 위해 Sahara AI는 다음 다섯 가지 주요 측면에 중점을 둡니다:
- 사용성: Sahara AI는 데이터 큐레이션에서 모델 개발, 에이전트 배포에 이르는 AI 개발 주기를 간소화합니다. 이를 통해 참가자는 AI를 활용하여 생산성을 향상하고 고유틸리티 애플리케이션을 생성하며 긍정적인 실세계 결과를 달성할 수 있습니다.
- 사용자 중심 경험: Sahara AI는 AI 개발 주기의 모든 참가자에게 즉시 사용할 수 있는 경험을 제공합니다. 기술 전문 지식에 관계없이 모든 참가자는 AI 기술과 쉽게 상호 작용할 수 있습니다.
- 보안 및 프라이버시: 사용자는 최첨단 보안 조치와 프라이버시 보호의 혜택을 누릴 수 있습니다. 사용자는 사용성을 손상시키지 않고 AI 자산과 계산을 자신 있게 관리할 수 있습니다.
- 고성능 인프라: Sahara AI의 인프라는 최첨단 AI 패러다임을 지원하며 사용자가 고급 AI 모델 및 애플리케이션을 작업할 수 있는 포괄적인 도구 키트를 제공합니다.
- AI-네이티브 블록체인: Sahara AI는 Sahara 블록체인 위에 구축되었으며, Sahara AI 플랫폼의 전체 AI 라이프사이클에 걸쳐 AI 거래를 위한 내장 프로토콜 및 프리컴파일을 갖춘 Layer 1 블록체인입니다.
Pillar 3: Collaborative Economy
Sahara AI 협력 경제는 모든 참가자가 그들의 기여에 대해 보상을 받을 수 있도록 하는 수익화 및 귀속을 가능하게 합니다. 이는 다음과 같은 의미를 가집니다:
- 공정한 보상 및 인식: 사용자는 AI 개발 프로세스의 출처에 기반하여 그들의 기여에 비례하여 보상을 받으며, 이는 글로벌 경제 격차 문제를 해결합니다.
- 포용적 참여: 협력 경제는 개인, 중소기업(SMB), 기업의 동시 참여를 유도하여 다양한 AI 커뮤니티를 촉진합니다.
- 신뢰할 수 없는 거래: Sahara AI 플랫폼은 사용자가 투명하고 효율적인 프로세스를 통해 AI 자산을 수익화할 수 있도록 합니다.
Design
이 세 가지 기둥을 기반으로 Sahara AI는 모든 참가자가 기여하고 협력하며 혜택을 받을 수 있는 플랫폼을 제공합니다. 플랫폼은 전체 AI 라이프사이클 동안 사용자와 개발자를 안전하고 포괄적으로 지원하기 위해 설계된 계층형 아키텍처를 기반으로 구축되었습니다. 그림 3에 나와 있듯이, Sahara AI 플랫폼은 네 개의 계층으로 구성되어 있습니다:
- 애플리케이션 계층은 사용자 인터페이스 및 Sahara AI 플랫폼의 주요 상호 작용 지점으로 작동합니다. 사용자가 AI 자산을 구축하고 수익화할 수 있는 네이티브 내장 애플리케이션을 제공합니다.
- 거래 계층은 AI 라이프사이클 전반에 걸쳐 출처, 접근 제어, 귀속 및 기타 AI 관련 거래를 관리하는 Layer 1 블록체인 인프라인 Sahara 블록체인을 특징으로 합니다.
- 데이터 계층은 데이터 저장, 접근 및 전송을 위한 추상화 및 프로토콜을 제공합니다. 온체인 및 오프체인 구성 요소를 통합하여 AI 라이프사이클 전반에 걸쳐 원활한 데이터 관리를 제공합니다.
- 실행 계층은 AI 유틸리티를 지원하기 위한 필수 오프체인 인프라를 제공합니다. AI 기능의 전체 스펙트럼을 포괄하며, 성능을 극대화하고 확장성을 보장하며 강인성을 향상시키기 위해 동적으로 계산 자원을 할당합니다.
Application Layer
Sahara AI 플랫폼의 애플리케이션 계층은 플랫폼 참가자에게 기본적으로 내장된 도구 키트와 애플리케이션을 제공하여 사용자 경험을 향상시키는 주요 인터페이스 역할을 합니다. 애플리케이션 계층의 핵심은 기술 전문 지식에 관계없이 참가자가 AI 생태계 내에서 최대한의 참여를 할 수 있도록 설계된 구성 요소입니다.
→ 기능 구성 요소
기능 구성 요소는 애플리케이션 계층의 강력한 운영과 보안 조치를 지원하는 기본 요소입니다. 이러한 구성 요소는 AI의 안전한 저장, 효율적인 관리 및 효과적인 배포를 보장하도록 설계되었습니다.

Figure 3: This layered diagram illustrates the technical architecture of the Sahara blockchain platform which consists of four inter-related layers. This hybrid infrastructure with both on-chain and off-chain protocols allows users and developers to effectively contribute to and benefit from the entire AI development cycle.
1. Sahara ID
Sahara ID는 Sahara AI 플랫폼 내에서 신원 관리를 위한 초석 역할을 합니다. 이는 AI 엔티티 또는 인간 사용자인 모든 참가자에게 고유한 식별자를 제공합니다. 이 시스템은 강력한 신원 확인 및 평판 관리를 제공하여 플랫폼 전반에 걸쳐 안전하고 투명한 상호 작용을 보장합니다. Sahara ID를 통해 참가자는 자신이 소유하거나 라이선스를 받은 AI 자산에 안전하게 접근하고, 생태계 내에서 자신의 기여와 평판을 추적하고 관리할 수 있습니다. Sahara ID는 또한 귀속을 촉진하는 데 중요한 역할을 합니다. 이는 각 참가자의 AI 프로젝트에 대한 기여를 철저히 기록하여 귀속이 명확하게 추적되고 AI "저작권"이 유지되도록 합니다.
2. Sahara Vaults
Sahara Vaults는 AI 자산을 저장하고 관리하는 개인적이고 안전한 저장소로, 사용자 노드의 로컬 저장소와 공용 노드의 클라우드 저장소를 모두 포함합니다. 이러한 금고는 고급 보안 기능을 제공하여 모든 데이터와 자산이 무단 접근 및 잠재적 위협으로부터 보호되도록 합니다. Sahara Vaults는 독점 AI 자산의 프라이버시, 보안 및 무결성을 유지하기 위해 노력합니다.
3. Sahara Agent
Sahara Agents는 Sahara AI 플랫폼 내의 AI 기반 엔티티로, Brain, Perceptor, Actor의 세 가지 필수 구성 요소로 구성됩니다. 각 구성 요소는 특정 기능을 수행하도록 설계되었습니다:
- Brain: 사고, 기억, 계획 및 추론을 담당하는 전략적 핵심입니다. 정보를 처리하고 정보에 입각한 결정을 내립니다. 기능에는 다음이 포함됩니다:
- Persona Alignment: 특정 사용자 페르소나에 맞춰 에이전트의 응답과 행동을 조정하여 맞춤형 상호 작용을 보장합니다.
- Lifelong Learning: 피드백 메커니즘과 강화 학습을 사용하여 시간이 지남에 따라 지속적으로 기능을 향상시킵니다.
- Perceptor: 다양한 소스에서 입력을 처리하고 분석하여 Brain의 결정을 알립니다. 기능에는 다음이 포함됩니다:
- Multimodal Perception: 시각 및 청각을 포함한 다양한 유형의 데이터 입력을 처리하고 해석합니다.
- Actor: Perceptor가 제공한 통찰력에 따라 Brain이 결정한 행동을 수행합니다. 기능에는 다음이 포함됩니다:
- Tool Utilization: 웹 검색과 같은 작업을 수행하기 위해 다양한 도구와 리소스를 활용합니다.
→ 상호 작용 구성 요소
애플리케이션 계층의 상호 작용 구성 요소는 사용자와 AI 엔티티 간의 상호 작용을 직접 촉진하여 사용자가 플랫폼에서 AI 자산을 적극적으로 활용하고 활용할 수 있도록 합니다. 이러한 구성 요소는 플랫폼의 기능을 다양한 응용 프로그램에 대해 접근 가능하고 실용적으로 만듭니다.
Sahara Toolkits
Sahara Toolkits는 Sahara AI 플랫폼에서 AI 자산을 생성하고 정제하려는 참가자를 위해 설계된 개발 및 배포 도구입니다. 이러한 도구 키트는 기술 전문 지식과 혁신적 실행 간의 격차를 해소하여 다양한 청중을 대상으로 합니다. 기술 사용자를 위해 Sahara SDK & API를 제공하여 프로그래밍, 통합 및 맞춤화를 위한 도구를 포함하여 다양한 요구에 맞춘 복잡한 AI 기능을 개발할 수 있습니다. 기술적이지 않은 사용자에게는 직관적인 인터페이스와 사전 구축된 템플릿을 통해 AI 개발을 접근 가능하게 만드는 Sahara No-Code/Low-Code 도구 키트를 제공합니다. 이러한 플랫폼은 기술 수준에 관계없이 모든 사용자가 AI 자산을 적극적으로 생성하고 배포할 수 있도록 합니다.
Sahara AI Marketplace
Sahara AI Marketplace는 AI 자산의 게시, 수익화 및 거래를 위한 탈중앙화 허브입니다. 독점 AI 에이전트, 모델 및 데이터 세트를 포함한 고품질 AI 자산의 포괄적인 포트폴리오를 제공합니다. 마켓플레이스는 Sahara ID와 원활하게 통합되어 소유권 보호 및 접근 제어를 촉진하며, 블록체인 기술을 활용하여 거래의 투명성과 보안을 보장하고 출처를 보장합니다. 또한 동적 라이선스 및 다양한 수익화 옵션을 제공하여 사용자의 다양한 요구를 충족하는 유연하고 혁신적인 솔루션을 제공합니다.
3.2 Transaction Layer
Sahara AI 플랫폼의 거래 계층은 Sahara 블록체인을 특징으로 합니다. Sahara 블록체인은 플랫폼의 포괄적인 요구를 충족하도록 설계된 Layer 1 블록체인입니다. 소유권, 귀속 및 플랫폼의 다양한 AI 관련 거래를 관리하기 위한 프로토콜을 제공합니다. Sahara 블록체인은 AI 자산의 주권과 출처를 유지하는 데 중요한 역할을 합니다.
→ Sahara Blockchain AI Native Features
Sahara 블록체인은 AI 라이프사이클 작업 전반에 걸쳐 필수 작업을 지원하는 특수 Sahara AI-Native Precompiles(SAP) 및 Sahara Blockchain Protocols(SBP)의 통합을 통해 AI-네이티브 블록체인으로서의 차별성을 갖습니다.
Sahara AI-Native Precompile Sahara 블록체인은 블록체인의 네이티브 수준에서 작동하는 내장 기능인 Sahara AI-Native Precompile(SAP)을 통합합니다. 이러한 SAP는 더 빠른 실행, 낮은 계산 오버헤드 및 가스 비용 절감을 가능하게 하기 위해 사전 컴파일됩니다.
- Training Execution SAPs: 이 클래스의 SAP는 오프체인 AI 교육 프로세스의 호출, 기록 및 검증을 용이하게 합니다. 블록체인이 오프체인 교육 환경과 원활하게 인터페이스하고 교육 활동이 정확하게 기록되도록 합니다. 또한 이러한 SAP는 블록체인 외부에서 수행된 교육 계산의 무결성과 진위성을 검증합니다. 그들의 목표는 Sahara AI 플랫폼 내에서 개발된 AI 모델의 신뢰성과 신뢰성을 향상시키는 것입니다.
- Inference Execution SAPs: Inference Execution SAPs는 오프체인에서 생성된 AI 추론 결과의 호출, 기록 및 검증을 지원합니다. 이러한 SAP는 추론에 필요한 오프체인 AI 계산을 호출하고 예측, 분류 또는 기타 출력을 포함할 수 있는 AI 추론이 합법적인 계산에서 파생되었는지 확인하는 강력한 메커니즘을 제공합니다. 이러한 기능을 통합함으로써 Sahara 블록체인은 모든 AI 추론 활동이 투명하고 검증 가능하며 책임이 있음을 보장합니다.
Sahara Blockchain Protocols Sahara 블록체인은 또한 스마트 계약을 통해 AI 특정 프로토콜을 구현하여 Sahara Blockchain Protocols(SBP)로 통칭됩니다. 이러한 SBP는 AI 라이프사이클의 다양한 측면을 관리하기 위한 구조화되고 안전한 프레임워크를 제공합니다. AI 자산 및 계산 결과가 투명하고 신뢰할 수 있도록 처리되도록 합니다.
- AI Asset Registry SBPs: 이러한 프로토콜은 블록체인에서 AI 자산의 초기 등록 및 추적을 관리합니다. AI 모델, 데이터 세트, 에이전트 및 기타 AI 관련 자산을 고유하게 식별하는 포괄적인 원장을 설정하여 그들의 출처를 검증할 수 있도록 합니다. AI Asset Registry SBPs는 자산의 생성, 정체성 및 기원과 같은 AI 자산 관리의 정적 측면에 중점을 둡니다.
- AI Licensing SBPs: AI Licensing SBPs는 AI 자산에 대한 접근 또는 활용 권한을 결정합니다. 온체인 라이선스의 다양한 유형을 통해 접근 제어를 시행하여 특정 AI 자산을 사용할 수 있는 권한이 있는 엔터티만 사용할 수 있도록 합니다. 이 프로토콜은 AI 자산의 보안 및 적절한 사용을 유지하는 데 도움이 되며 AI 기능의 준수 및 통제된 배포를 촉진합니다.
- AI Ownership SBPs: 이러한 프로토콜은 AI 자산의 명확하고 비양도성 및 비대체 소유권 기록을 유지합니다. AI 모델 및 데이터 세트의 소유권 세부 정보를 온체인에 안전하게 저장하여 소유권에 대한 명백한 증거를 제공합니다. 이는 AI의 "저작권"을 촉진하고 자산 소유권을 투명하게 관리하는 데 도움이 됩니다.
- AI Attribution SBPs: AI Attribution SBPs는 AI 라이프사이클 전반에 걸친 지속적인 기여를 추적하고 이러한 기여를 기반으로 보상의 분배를 관리합니다. 이러한 프로토콜은 AI 자산의 개발 및 진화에 대한 모든 입력이 기록되고 생성된 모든 수익이 기여자에게 공정하게 할당되도록 합니다.
→ Sahara Blockchain Design
Sahara 블록체인은 지분 증명 합의 메커니즘을 사용하며 강력한 AI 유틸리티를 달성하기 위해 실행 계층과 원활하게 작동하는 AI 네이티브 기능 제품군을 제공하는 데 중점을 둡니다. 우리는 비잔틴 장애 허용 합의를 위해 Tendermint 알고리즘 1을 사용합니다. 이는 높은 수준의 장애 허용을 보장하고 악의적인 노드가 있는 경우에도 네트워크가 합의에 도달할 수 있도록 합니다. 또한 Sahara 블록체인은 관리 도메인에서 유연성을 제공하고 확장 가능한 솔루션을 지원하기 위해 모듈식 설계를 따릅니다. 우리의 설계 선택은 다음 체인 기능을 해결하는 것을 목표로 합니다:
- 효율성: Tendermint 알고리즘을 기반으로 구축된 Sahara 블록체인은 실시간 데이터 처리 및 고속 거래를 위해 추가 최적화를 도입하여 빠른 블록 확인 시간, 빠른 평균 블록 시간 및 거의 즉각적인 최종성과 같은 고성능 속성의 고유한 이점을 누릴 뿐만 아니라 이를 더욱 향상시킵니다.
- 확장성: 우리의 모듈식 설계는 수평 확장성 및 Layer 2 솔루션과 같은 오프체인 확장 솔루션을 지원합니다. 수요 증가에 따라 효율적인 확장성을 보장하기 위해 롤업 솔루션을 지원할 계획입니다. 롤업은 여러 거래를 오프체인으로 집계하고 이를 메인 블록체인에 제출하여 처리량을 크게 향상시키고 거래 비용을 낮춥니다. 우리의 접근 방식은 높은 수준의 보안과 탈중앙화를 유지하면서 미래의 사용 증가에 대한 강력한 솔루션을 제공하는 것을 목표로 합니다.
- 상호 운용성: 우리는 다른 블록체인과의 원활한 상호 작용을 촉진하기 위해 Sahara Cross-chain Communication(SCC) 프로토콜을 설계합니다. 우리의 프로토콜은 제3자 중개자에 의존하지 않고 바이트로 인코딩된 모든 유형의 데이터를 다른 블록체인 간에 안전하고 무허가로 전송할 수 있도록 합니다. SCC를 활용하여 신뢰할 수 없고 무허가 상호 작용을 보장하여 모든 당사자가 블록체인 간에 정보를 전송하기 위해 릴레이어를 운영할 수 있습니다. 또한 다양한 블록체인 네트워크 간의 자산 전송을 원활하게 하기 위해 크로스체인 브리지를 지원합니다.
- EVM 호환성: Sahara 블록체인의 내장 가상 머신은 이더리움 가상 머신(EVM)과 완전히 호환됩니다. 이 호환성을 통해 개발자는 Solidity와 같은 프레임워크를 포함하여 이더리움 도구, 리소스 및 커뮤니티 지원의 광범위한 생태계를 활용할 수 있습니다. 개발자는 최소한의 코드 수정으로 Sahara 블록체인에서 스마트 계약을 작성하고 배포할 수 있으며 다른 EVM 호환 블록체인에서도 작동할 수 있습니다. 우리는 개발자에게 Sahara에서 효율적으로 분산 애플리케이션을 구축할 수 있는 친숙하고 강력한 환경을 제공합니다.
낮은 가스 요금: Sahara 블록체인은 거래 비용을 최소화하기 위해 매우 효율적인 요금 구조를 구현합니다. 거래 일괄 처리를 최적화하고 동적 요금 메커니즘을 활용하여 네트워크 수요가 증가하더라도 가스 요금을 경제적으로 유지하는 것을 목표로 합니다. 우리는 블록체인에서 비용 효율성을 달성하여 개발자와 사용자가 더 많이 참여하고 참여할 수 있도록 플랫폼을 더 접근 가능하고 매력적으로 만들기 위해 노력하고 있습니다.
3.3 Data Layer
Sahara AI 플랫폼의 데이터 계층은 AI 라이프사이클 전반에 걸쳐 데이터 관리를 최적화하도록 설계된 추상화입니다. 이는 실행 계층을 다양한 데이터 관리 메커니즘에 연결하는 중요한 인터페이스 역할을 하며 온체인 및 오프체인 데이터 소스를 원활하게 통합합니다. 이 개념적 계층은 데이터에 대한 효율적인 접근을 보장할 뿐만 아니라 시스템 무결성과 성능을 향상시킵니다.
→ 데이터 구성 요소
온체인 데이터 온체인 데이터에는 중요한 AI 자산 메타데이터, 귀속, 커밋 및 증명이 포함됩니다. 이를 통해 Sahara AI 플랫폼 내의 모든 기여와 상호 작용이 투명하고 책임감 있게 이루어집니다.
오프체인 데이터 저장 제한 및 온체인 데이터 관리와 관련된 비용 고려 사항으로 인해 중요한 데이터 세트, AI 모델 및 보충 정보는 오프체인에 저장됩니다. 오프체인 저장 솔루션을 활용함으로써 성능을 저하시키지 않고 방대한 양의 데이터를 처리할 수 있으며 효율적이고 비용 효율적입니다.
→ 데이터 관리 보안 Sahara AI에서는 플랫폼과 사용자 데이터를 보호하기 위해 보안을 최우선으로 합니다. 모든 상호 작용에서 강력한 보호를 보장하기 위해 포괄적인 보안 조치를 구현합니다:
- 고급 암호화: 최신 암호화 관행을 사용하여 모든 데이터를 보호하여 전송 중 및 저장 중에 민감한 정보가 보호되도록 합니다. 이 수준의 보안은 생태계 내에서 기밀성과 무결성을 유지하는 데 중요합니다.
- 접근 제어: AI 라이선스 SBP와 시너지 효과를 내어 온체인 라이선스를 엄격한 접근 제어 시스템으로 구현합니다. 이러한 제어는 데이터 접근을 권한이 있는 인원으로 엄격히 제한하여 플랫폼의 보안 및 준수성을 크게 향상시킵니다. 또한 이러한 접근 방식은 투명성과 변경 불가능성과 같은 Sahara 블록체인의 고유한 속성을 활용하여 이러한 제어가 효과적일 뿐만 아니라 검증 가능하고 안전하도록 합니다.
- 개인 도메인 저장소: 사용자가 개인 도메인에 데이터를 저장할 수 있도록 하여 플랫폼과의 원활한 상호 작용을 허용하면서 향상된 보안 기능을 제공합니다. 이 기능을 통해 사용자는 민감한 데이터에 대한 통제권을 유지하면서도 플랫폼의 강력한 기능과 연결성의 이점을 누릴 수 있습니다.
데이터 가용성 Sahara AI 플랫폼에서는 모든 블록 데이터가 네트워크 참가자에게 검증 가능하게 접근할 수 있도록 하는 상용 솔루션을 구현하여 데이터 가용성(DA) 문제를 적극적으로 해결합니다. 이 전략은 네트워크 무결성과 신뢰를 유지할 뿐만 아니라 블록체인의 확장성을 향상시키는 데 중요합니다. 특히 전체 블록체인을 저장하지 않는 라이트 클라이언트를 위한 효율적이고 신뢰할 수 있는 데이터 검증을 가능하게 함으로써 네트워크의 전체 노드 의존도를 크게 줄입니다. 이 접근 방식은 대역폭 및 저장 요구 사항을 최소화하고 원활하고 확장 가능한 네트워크 운영을 촉진합니다. 데이터 계층에 이러한 DA 솔루션을 통합하면 전체 시스템 성능이 향상되고 네트워크가 속도나 보안을 손상시키지 않고 증가된 거래 및 데이터 볼륨을 처리할 수 있습니다.
인덱싱 Sahara AI 플랫폼에서는 블록체인 아키텍처에 맞춘 고급 인덱싱 기술을 사용하여 온체인 데이터 관리를 적극적으로 향상시킵니다. 이러한 방법은 데이터 검색 속도와 쿼리 효율성을 크게 향상시킵니다. 우리는 확장성과 성능을 향상시키기 위해 자체 솔루션과 함께 상용 분산 인덱싱 솔루션을 활용합니다. 데이터 계층 내에서의 이러한 통합은 실행 계층과 데이터 소스 간의 원활한 상호 작용을 보장합니다. 우리의 접근 방식은 플랫폼이 증가하는 데이터 볼륨과 복잡한 쿼리를 효율적으로 관리할 수 있도록 합니다.
저장 우리의 오프체인 데이터 저장 전략은 비용 효율성과 확장성을 최적화하기 위해 분산 시스템과 중앙 집중식 시스템의 강점을 결합한 하이브리드 모델을 사용합니다. 우리는 IPFS와 같은 분산 저장 솔루션을 사용하여 불변성과 분산 호스팅의 이점을 누릴 수 있는 중요한 데이터를 위해 전통적인 클라우드 저장 솔루션을 사용하여 속도와 가용성이 중요한 대량의 데이터를 처리합니다. 이 이중 접근 방식은 데이터 저장 비용을 효과적으로 관리하면서 높은 가용성과 빠른 접근을 보장합니다.
3.4 Execution Layer
실행 계층은 AI 계산 및 기능과 관련된 프로토콜을 실행하고 관리하기 위해 거래 계층 및 데이터 계층과 원활하게 상호 작용하는 Sahara AI 플랫폼의 오프체인 AI 인프라입니다. 실행 작업에 따라 데이터 계층에서 데이터를 안전하게 가져오고 최적의 성능을 위해 동적으로 계산 자원을 할당합니다. 실행 중에 실행 계층은 효율적이고 개인적이며 무결성을 유지하는 다양한 프로토콜을 활용합니다. Sahara 블록체인과 상호 작용하여 모든 실행 활동과 증명을 기록하여 출처와 신뢰를 보장합니다. 또한 우리의 AI 인프라는 신속하고 탄력적이며 탄력적인 고성능을 지원합니다.
→ 고성능 인프라 Sahara AI의 실행 계층의 기본 인프라는 다음과 같은 속성을 가진 고성능 AI 계산을 지원하도록 설계되었습니다:
- 신속한: 실행 계층은 인프라 내의 다양한 기여자와 참가자 간의 AI 계산을 효율적으로 조정하여 빠르고 신뢰할 수 있는 성능을 보장하도록 구축되고 있습니다.
- 탄력적: 다양한 수준의 트래픽을 처리하기 위해 실행 계층은 강력한 자동 확장 메커니즘을 구축하고 있습니다. 이 기능은 높은 트래픽 조건에서도 인프라가 높은 가용성을 유지하도록 합니다.
- 탄력적: 실행 계층은 시스템 안정성과 신뢰성을 보장하기 위해 내결함성으로 구축되었습니다. Sahara 블록체인으로 보완되어 인프라는 파티션 허용입니다. 장애가 발생할 경우 시스템은 처리 워크플로의 무결성을 유지하고 다운타임을 최소화하기 위해 신속하게 복구할 수 있습니다.
→ 추상화
추상화는 Sahara AI 플랫폼에서 다양한 AI 자산을 구현하는 데 필수적입니다. 데이터 세트, AI 모델, 계산 자원, 금고 및 AI 에이전트를 관리하기 위한 개념적 프레임워크를 제공합니다.
핵심 추상화 핵심 추상화는 Sahara AI 플랫폼에서 AI 운영의 기초를 형성하는 필수 구성 요소입니다.
- 데이터 세트 데이터 세트 추상화는 AI 교육을 촉진하고 추론 프로세스를 증강하는 참가자의 큐레이션된 데이터를 나타냅니다.
- AI 모델 AI 모델 추상화는 다양한 기계 학습 작업을 위한 모델 및 아키텍처를 캡슐화합니다. 우리의 주요 관심 모델은 생성 모델 2, 3, 4, 5이며, 특히 대형 언어 모델(LLM) 6, 7, 8에 중점을 둡니다. Sahara AI는 트랜스포머 기반 모델 9, 10에 대해 최적화됩니다.
- 계산 계산 추상화는 AI 작업 실행을 지원하는 자원을 포함합니다. Sahara AI의 인프라는 최적의 성능과 비용 효율성을 위해 이러한 자원을 동적으로 할당합니다. 여기에는 클라우드 기반 GPU뿐만 아니라 네트워크 참가자의 분산 기여도 포함됩니다.
고급 추상화 고급 추상화는 핵심 추상화를 기반으로 구축되며 Sahara AI 플랫폼에서 더 높은 수준의 기능과 통합을 제공합니다.
- 금고 금고 추상화는 Sahara Vault 뒤의 실행 인터페이스입니다. AI 자산의 접근성과 효과적인 사용을 관리하도록 구조화되어 있으며 운영 프로세스에 필수적입니다.
- AI 에이전트 AI 에이전트 추상화는 Sahara Agent 뒤의 실행 인터페이스입니다. 특히 LLM이 두뇌인 LLM 기반 에이전트 11, 12, 13에 관심이 있습니다. 이러한 추상화는 에이전트가 복잡한 추론을 수행하고 자연어 상호 작용에 참여하며 다양한 인지 및 의사 결정 작업을 효율적으로 수행할 수 있도록 합니다 14, 15, 16, 17.
→ 실행 계층 프로토콜
Sahara AI 플랫폼의 실행 계층은 다양한 추상화 간의 효율적인 상호 작용을 촉진하기 위해 설계된 전문 프로토콜 제품군을 통해 복잡한 AI 작업을 조정합니다. 이러한 프로토콜은 AI 접근, 교육 및 실행을 포함한 다양한 활동을 관리합니다. 이들은 실행 세부 사항을 철저히 기록하기 위해 SBP와 원활하게 작동합니다. 여기에는 특정 작업을 수행한 사람, 접근한 자원, 다양한 엔터티의 기여도를 추적하는 것이 포함됩니다.
-
추상화 실행 프로토콜 추상화 실행 프로토콜은 모든 고급 추상화가 효율적이고 안전하게 작동하도록 필요한 프레임워크를 제공합니다.
- 금고 실행 프로토콜 금고 실행 프로토콜은 Sahara AI 플랫폼의 실행 계층 내에서 금고와의 상호 작용을 표준화하여 다양한 AI 프로세스를 위해 금고에 접근하고 활용하는 방법을 자세히 설명합니다.
- 직접 접근 프로토콜: 이 프로토콜을 통해 사용자는 금고에서 특정 정보를 신속하고 안전하게 검색할 수 있습니다.
- 다운스트림 모델 교육 프로토콜: 이러한 프로토콜은 금고에 저장된 데이터를 사용하여 다운스트림 AI 모델을 교육하는 데 사용됩니다. 비구조화 데이터를 사전 교육에 사용하고 구조화된 데이터를 후속 미세 조정에 사용하는 다양한 교육 패러다임 10, 6, 18, 19을 지원합니다.
- 검색 증강 생성(RAG) 프로토콜: RAG 20, 21 프로토콜은 금고에서 검색된 관련 데이터를 활용하여 생성 모델의 출력을 향상시킵니다.
-
에이전트 실행 프로토콜 에이전트 프레임워크 프로토콜은 실행 계층 내에서 AI 에이전트의 상호 작용 및 조정을 관리합니다. 이러한 프로토콜에는 다음이 포함됩니다:
- 통신 프로토콜: Sahara AI는 다양한 조정 요구에 맞는 다양한 통신 전략을 지원합니다:
- 계층적 통신: 이 전략에서는 한 에이전트가 리더 역할을 하며 다른 에이전트는 리더에게 보고합니다 22, 23, 24.
- 피어 투 피어 통신: 이 전략에서는 모든 에이전트가 동등하게 상호 작용하여 정보를 공유하고 협력적으로 결정을 내립니다 12, 25, 26.
- 다중 에이전트 조정 프로토콜: 복잡한 목표를 달성하기 위해 여러 에이전트의 효과적인 조정과 오케스트레이션이 필수적입니다. Sahara AI 플랫폼 내에서 이러한 프로토콜은 정교한 작업 할당, 동기화, 진화 및 협력 전략을 포함합니다.
- 통신 프로토콜: Sahara AI는 다양한 조정 요구에 맞는 다양한 통신 전략을 지원합니다:
-
협력 계산 프로토콜 실행 계층은 여러 참가자 간의 공동 AI 모델 개발 및 배포를 촉진하기 위해 협력 계산 프로토콜을 도입합니다. 이 협력 프레임워크 하에서 우리의 솔루션에는 AI 개발 프로세스 전반에 걸쳐 프라이버시와 무결성을 보장하기 위한 프라이버시 보호 컴퓨팅 모듈 및 계산 사기 방지 메커니즘이 포함되며, AI 모델의 효율적인 조정을 위한 파라미터 효율적 미세 조정(PEFT) 모듈이 포함됩니다.
- 협력 모델 교육 프로토콜 협력 모델 교육은 여러 사용자 또는 시스템이 공동으로 AI 모델을 구축할 수 있도록 하는 주요 구성 요소입니다. 여기에는 다음이 포함됩니다:
- 분산 교육: Sahara AI는 참가자가 계산 자원을 기여하고 27 분산 교육 시스템으로 모델을 공동으로 교육할 수 있도록 지원합니다 28.
- 모델 집계: 분산 교육 외에도 Sahara AI는 여러 참가자가 독점 모델을 단일 집합 모델로 결합할 수 있도록 최첨단 모델 병합 기술 29, 30, 31을 지원할 계획입니다.
- 협력 모델 제공 프로토콜 협력 모델 제공은 여러 사용자 또는 시스템이 공동으로 AI 모델을 제공할 수 있도록 합니다. 여기에는 다음이 포함됩니다:
- 분산 제공: 분산 교육과 유사하게 참가자는 모델의 세그먼트를 제공할 수 있습니다 32, 33, 27. 우리는 참가자 간의 원활한 협력을 촉진하기 위해 이를 확장 가능하고 효율적으로 구축하고 있습니다.
- 협력 모델 교육 프로토콜 협력 모델 교육은 여러 사용자 또는 시스템이 공동으로 AI 모델을 구축할 수 있도록 하는 주요 구성 요소입니다. 여기에는 다음이 포함됩니다:
-
추가 모듈
- PEFT 모듈 Sahara AI는 Low-Rank Adaptation(LoRA) 37과 같은 다양한 PEFT 기술 34, 35, 36을 지원하도록 구축되고 있으며, AI 모델을 효율적이고 휴대 가능하게 맞춤화할 수 있습니다. 이러한 PEFT 모듈은 최소한의 계산 오버헤드로 모델 성능을 향상시키며 LLM과 같은 대형 모델에 쉽게 통합할 수 있는 플러그 앤 플레이 구성 요소로 사용할 수 있습니다.
- 프라이버시 보호 컴퓨팅 모듈 실행 계층 내의 프라이버시 보호 컴퓨팅 모듈은 처리 수명 주기 동안 독점 데이터 및 모델 매개 변수가 안전하고 기밀로 유지되도록 합니다. 다양한 사용 사례와 시나리오를 충족하기 위해 다양한 프라이버시 보호 기술을 제공합니다:
- 차등 프라이버시(DP): 데이터 또는 계산에 노이즈를 추가하여 추론 및 교육 중에 사용됩니다 38, 39, 40, 41. 이를 통해 개별 데이터 포인트를 구별할 수 없습니다.
- 동형 암호화(HE): 두 당사자 간의 계산, 경량 계산 작업 및 더 큰 모델을 위한 무작위 수 생성과 같은 사전 처리 계산을 포함하는 시나리오에 사용됩니다 42.
- 비밀 공유(SS): 일반적인 트랜스포머 구조 추론 작업에 사용됩니다 43, 44. SS는 데이터를 여러 부분으로 나누어 다른 노드에 분산하여 단일 노드가 전체 데이터에 접근하지 못하도록 합니다.
- 계산 사기 방지 모듈 우리는 또한 협력 계산 프로토콜의 계산 결과에 대한 사기 방지 증명 45, 46 생성을 지원하도록 구축되고 있습니다. 이러한 증명은 악의적이거나 잘못된 계산으로부터 보호하기 위해 온체인에서 검증됩니다.
→ 통합
실행 계층은 Sahara AI 플랫폼의 다른 계층과 원활하게 통합되어 일관되고 효율적인 AI 인프라를 제공합니다.
-
거래 계층 실행 계층은 AI 자산의 주권과 출처를 관리하기 위해 거래 계층과 협력합니다. 실행 계층에서 발생하는 모델 접근, 데이터 사용 및 계산 결과와 같은 AI 자산과 관련된 모든 실행, 기여 및 사용 활동은 기록을 위해 Sahara 블록체인에 전송됩니다. 이는 SAP 및 SBP에 의해 촉진됩니다.
- 데이터 계층 실행 계층은 금고 추상화 및 해당 프로토콜을 활용하여 데이터 계층과 상호 작용하여 교육 및 RAG를 위해 금고에서 데이터를 안전하게 접근합니다. 이 통합은 프라이버시, 보안 및 무결성을 보장하기 위해 데이터 계층과 실행 계층의 계산 프로토콜의 메커니즘을 활용합니다.
3.5 Economic System
Sahara AI의 경제 시스템은 모든 참가자가 그들의 기여로부터 혜택을 받을 수 있는 협력적이고 공정하며 보람 있는 환경을 조성하도록 설계되었습니다. 노드를 운영하거나 지식과 데이터를 기여하거나 모델을 미세 조정하거나 자율 에이전트를 구축하는 등 Sahara AI는 공정한 보상, 투명한 거래 및 포용적 참여를 보장합니다. Sahara 블록체인과 그 SAP를 활용하여 Sahara AI는 이러한 원칙을 유지하는 강력한 시스템을 제공하여 모든 사람에게 신뢰와 공정한 기회를 촉진합니다.
AI 자산 투자 모델 Sahara AI는 혁신적인 투자 모델을 채택하여 협력 경제를 더욱 강화합니다. 이 모델을 통해 사용자는 자본, 데이터, 계산 및 기술 AI 전문 지식과 같은 자원을 AI 모델, 에이전트 및 애플리케이션의 지분과 교환할 수 있습니다. 이는 Microsoft와 Amazon과 같은 주요 GPU/클라우드 거대 기업이 OpenAI 및 Anthropic과 같은 기초 모델 회사에 GPU 자원을 제공하는 대가로 지분을 확보하는 전략을 반영합니다. 이러한 거대 기업은 기초 모델 회사의 성공과 이해관계를 일치시키면서 AI 개발자에게 필수적인 계산 능력을 제공합니다. 결과적으로 AI 혁신을 가속화하고 산업 역학을 잠재적으로 재편하는 상호 이익이 되는 생태계를 만듭니다. Sahara AI는 데이터에서 계산, 모델 개발에서 최종 애플리케이션에 이르기까지 전체 AI 라이프사이클에 걸쳐 이 모델을 확장하여 협력 경제를 더욱 역동적이고 포용적으로 만듭니다.
→ 경제적 역할 경제 시스템에서 Sahara AI 플랫폼은 다음과 같은 중요한 역할을 포함합니다:
- 개발자: 개발자는 Sahara AI 플랫폼에서 AI 모델, 도구 및 애플리케이션을 생성합니다. 그들의 인센티브에는 사용료, 라이선스 및 창작물 판매를 통한 수익이 포함됩니다.
- 지식 제공자: 지식 제공자는 주석자와 검토자로 구성됩니다. 주석자는 개인화된 데이터와 전문 지식을 제공하는 역할을 하며, 검토자는 수집된 데이터의 품질을 보장합니다. 그들은 제공한 데이터의 품질과 유용성에 따라 보상을 받습니다.
- 소비자: 소비자는 플랫폼에서 AI 모델, 도구 및 애플리케이션을 사용하는 최종 사용자와 비즈니스입니다. 그들은 사용량에 따라 서비스를 지불하여 지속 가능한 경제 주기를 보장합니다. 소비자는 운영을 향상시키고 혁신을 촉진할 수 있는 최첨단 AI 솔루션에 접근할 수 있습니다.
- 투자자: 투자자는 AI 자산의 개발 및 배포를 지원하기 위해 자본과 자원(GPU, 클라우드 서버, RPC 노드 등)을 제공합니다. 그 대가로 AI 자산의 지분을 받고 AI 자산에서 발생하는 수익과 AI 자산의 가격 상승으로 인한 잠재적 수익을 얻습니다.
- 운영자: 운영자는 저장 및 계산 능력을 기여하고 온체인 및 오프체인 네트워크 인프라를 유지하는 역할을 합니다. 그들은 플랫폼의 원활한 운영과 보안을 보장합니다. 운영자는 네트워크 안정성과 성능을 유지하는 역할에 대한 보상을 받습니다.
- 검증자: 검증자는 Sahara 블록체인의 무결성과 보안을 유지합니다. 그들은 거래를 검증하고 네트워크를 보호합니다. 검증자는 블록체인의 신뢰성과 신뢰성을 보장하는 중요한 역할에 대한 보상을 받습니다.
→ 성장 플라이휠

Figure 4: Sahara Dual Growth Flywheel
전반적으로 그림 4에 나와 있듯이 Sahara AI는 Web3 생태계와 AI 생태계의 지속 가능하고 확장 가능한 성장을 촉진하기 위해 이중 성장 플라이휠 모델을 사용합니다. 이 이중 접근 방식은 Web3 생태계와 AI 생태계가 자가 유지 루프에서 시너지 효과를 발휘하도록 보장합니다.
AI 생태계 AI 생태계 성장 플라이휠은 AI 관련 작업을 수행하는 개발자에서 시작됩니다. 이러한 AI 관련 작업은 지식 제공자가 생태계 내에서 AI 자산을 생성하기 위해 개발자와 협력하도록 유도합니다. 생성된 AI 자산은 소비자를 유치하여 AI 자산의 수익을 증가시킵니다. 이 수익 증가는 투자자의 관심을 끌어 주식 가격 상승으로 이어집니다. 이 상승은 개발자의 순이익 증가를 촉발하여 더 많은 개발자가 생태계에 참여하도록 합니다. 개발자의 지속적인 유입은 더 많은 혁신을 촉진하여 가치 있는 AI 자산의 생성을 촉진하고 AI 생태계의 성장 주기를 지속적으로 유지합니다.
Web3 생태계 Web3 생태계 성장 플라이휠은 Sahara 블록체인에서 애플리케이션을 구축하여 제품 혁신을 주도하는 개발자에서 시작됩니다. 이 혁신은 사용자 참여를 가속화하여 더 많은 사용자를 플랫폼으로 유도합니다. 사용자 참여가 증가하면 번영하는 생태계가 촉진되어 거래 수가 증가합니다. 거래가 증가함에 따라 기본 서비스의 수익이 향상됩니다. 이 수익 증가는 생태계에 더 많은 운영자와 검증자를 유치하여 인프라 안정성을 더욱 향상시킵니다. 안정적인 인프라는 더 많은 개발자를 유치하여 제품 혁신을 촉진하고 성장 주기를 지속합니다.
시너지 AI와 Web3 생태계는 개발자가 핵심 역할을 하는 밀접하게 연결된 관계입니다. AI 생태계에서 개발자는 AI 관련 작업에 참여하여 AI 자산을 생성하여 혁신을 주도하고 투자를 유치하여 더 많은 개발자의 성장을 촉진합니다. 이러한 AI 발전을 활용한 더 많은 개발자는 Web3 생태계 내에서 제품 혁신과 사용자 참여를 향상시킵니다. 증가된 참여는 Web3 생태계의 거래 및 수익을 증가시켜 더 많은 AI 개발을 위한 안정적인 플랫폼을 제공하여 더 많은 개발자를 유치합니다. 이 시너지는 각 생태계가 성장함에 따라 다른 생태계의 성장을 지원하고 가속화하여 상호 강화의 강력한 주기를 만듭니다.
→ AI 자산의 자본화 Sahara AI 플랫폼 내에서 AI 자산의 자본화는 영수증, 주식 및 라이선스의 세 가지 별개의 도구로 구성됩니다.
영수증 영수증은 AI 자산 소유권에 대한 온체인, 비양도성 및 비대체 디지털 증명입니다. 영수증의 특정 매개변수(예: 자격, 할당 비율 또는 따르는 메커니즘)는 개발자와 지식 제공자가 AI 자산을 공동으로 생성하기 전에 최종 결정됩니다. 고품질 AI 자산의 영수증은 AI 개발자와 관련 기여자가 온체인 평판을 구축하는 데 크게 도움이 될 것입니다. 더 높은 온체인 평판은 Sahara AI 생태계 내에서 더 넓은 가시성, AI 자산의 주식 또는 라이선스 판매 기회 증가, Sahara AI 생태계의 추가 기능 접근 등으로 이어질 수 있습니다. 따라서 AI 개발자는 고품질 AI 자산을 생성하는 데 높은 동기를 부여받습니다.
주식 주식은 AI 자산의 수익 공유 권리를 나타내는 온체인 디지털 증명입니다. 수익 공유 비율은 보유한 주식 수에 따라 다릅니다. 주식의 특정 매개변수(예: 자격, 할당 비율 또는 따르는 메커니즘)는 개발자와 지식 제공자가 AI 자산을 공동으로 생성하기 전에 최종 결정됩니다. 주식의 수익은 일반적으로 AI 자산 라이선스 판매에서 발생하는 수익 또는 주식 및 라이선스 거래 수수료에서 파생됩니다.
소유자는 AI 자산에서 발생하는 수익의 일부를 얻기 위해 주식을 보유하거나 즉시 차익 거래를 위해 주식을 2차 시장에서 판매할 수 있습니다. 고품질 AI 자산은 주식 보유자에게 지속적인 수익 흐름을 보장하여 2차 시장에서 주식 가격 상승으로 이어질 것입니다. 이는 AI 개발자가 고품질 AI 자산을 생성하도록 더욱 동기를 부여하고 소비자가 다양한 유형의 라이선스를 구매하고 거래하도록 장려합니다.
라이선스 라이선스는 AI 자산에 접근하거나 활용할 수 있는 권한을 나타내는 온체인 디지털 증명입니다. 라이선스는 AI 자산에 접근하거나 활용할 수 있는 다양한 권리를 가지고 있습니다:
- 파트너십 라이선스: 접근 권한 및 결제 방법은 사용자 혜택을 기반으로 한 장기 수익 공유 모델을 포함하는 맞춤형 계약에서 결론지어집니다.
- API 라이선스: 보안 인증 프로세스를 통해 접근이 허용되며, 사전 정의된 사용 기준에 따라 승인이 필요하며 각 호출에 대해 고정 결제가 이루어집니다.
- 전체 접근 라이선스: 모든 내부 매개변수를 포함한 AI 자산에 대한 전체 접근 권한이 있으며 일회성 결제가 이루어집니다.
- 장기 라이선스: 특정 기간 동안 AI 자산에 대한 무제한 호출 권한이 있으며 일회성 결제가 이루어집니다.
라이선스의 특정 매개변수(예: 자격, 할당 비율 또는 따르는 메커니즘)는 개발자와 지식 제공자가 AI 자산을 공동으로 생성하기 전에 최종 결정됩니다.
4. Governance
Sahara AI 플랫폼의 거버넌스는 탈중앙화 및 커뮤니티 주도의 혁신과 의사 결정을 강조합니다. 행동과 결정은 Sahara DAO를 통해 투명하게 이루어지며, 중요한 기여를 한 사용자가 주요 이니셔티브를 제안, 논의 및 투표할 수 있도록 합니다. Sahara Foundation은 Sahara DAO의 초기 설정을 지원하여 커뮤니티가 완전히 탈중앙화된 거버넌스를 향해 나아가도록 안내합니다. 우리의 거버넌스 모델은 Sahara AI 플랫폼의 진화에 대한 광범위한 참여를 보장합니다.
4.1 The Sahara DAO
Sahara DAO는 완전한 민주화를 위해 헌신하며, 필수 기능으로 거버넌스를 최소화하고 자율성과 혁신을 촉진합니다. Sahara 생태계에 중요한 기여를 한 사용자는 플랫폼을 형성하는 데 중요한 역할을 하며 다양한 거버넌스 제안에 대해 제안, 논의 및 투표를 할 수 있습니다. 그들은 개인적으로 투표하거나 신뢰할 수 있는 대표자에게 투표 권한을 위임할 수 있는 옵션을 가지고 있습니다.
Sahara DAO는 또한 플랫폼의 독립성과 투명성을 보장하고, 생태계에 대한 기여에 대한 공정한 보상을 우선시하며, 단기 요구와 장기 목표의 균형을 맞추기 위해 자원을 전략적으로 관리합니다.
4.2 The Sahara Foundation
Sahara Foundation은 Sahara Vision을 실현하기 위해 헌신하는 기업, 집단 및 개인의 광범위하고 역동적인 네트워크 내에서 중요한 요소를 나타냅니다. 그 기능은 Sahara DAO의 창출을 촉진하고 Sahara 생태계의 성장을 촉진하며 기본 기술을 발전시키는 것입니다. Sahara DAO의 형성 단계에서 재단은 장기 개발에 대한 효과적인 전략을 식별하고 탈중앙화되고 투명하며 커뮤니티 주도의 거버넌스를 위한 전망을 크게 향상시키기 위해 Sahara DAO를 지원합니다.
재단은 또한 기술 인프라를 확장하기 위해 커뮤니티 참여를 촉진하고 확장성, 보안 및 탈중앙화에 대한 연구를 후원하여 SBP를 오픈 소스 이니셔티브로 지원합니다.
5. The Future
Sahara AI가 가능하게 하는 미래에는 인공지능이 소수에 의해 통제되는 것이 아니라 모두가 접근할 수 있는 공유 자원이 됩니다. 이 새로운 AI 세계는 투명성, 포용성, 공정성, 그리고 무엇보다도 사용자 프라이버시와 통제의 원칙에 의해 안내됩니다.
이 미래에서 AI 애호가는 Sahara AI에 로그인하여 다양한 AI 모듈을 탐색하고 자신의 독점 데이터 세트로 이러한 모델을 미세 조정하며 커뮤니티와 개선 사항을 공유할 수 있습니다. 그들은 AI 자산에 대한 완전한 통제권을 가지며, 그들의 기여가 보호되면서도 보상을 받을 수 있습니다.
중앙 집중식 장벽에 의해 제약을 받았던 데이터 과학자는 이제 Sahara AI의 방대한 데이터 및 모델 풀을 활용하여 연구를 발전시킬 수 있습니다. 플랫폼의 강력한 프라이버시 기능을 통해 데이터를 제어하면서 모델을 정제하고 솔루션을 배포할 수 있습니다.
비즈니스 리더에게 Sahara AI는 회사의 특정 요구에 맞춘 맞춤형 AI 솔루션을 제공하여 전략적 이점을 제공합니다. 그들은 데이터가 보호되고 AI 자산이 통제되는 것을 알고 혁신을 주도할 수 있습니다.
한편, AI 전문가가 아닌 개인도 Sahara AI 내에서 환영받는 환경을 찾을 수 있습니다. 그들은 최첨단 프로젝트에 참여하고 자신의 전문 지식을 기여하며 거버넌스에 참여하고 윤리적 AI 이니셔티브를 지원하면서도 기여에 대한 완전한 통제권을 유지하고 참여를 반영하는 보상을 받을 수 있습니다.
Sahara AI 생태계가 진화함에 따라 우리는 배경이나 전문 지식에 관계없이 모든 사람이 AI의 미래를 형성하는 데 의미 있는 역할을 할 수 있는 커뮤니티를 구축하고자 합니다. 이는 단순히 플랫폼을 구축하는 것이 아니라 AI의 혜택이 공평하게 공유되고 AI 자산에 대한 프라이버시와 통제가 최우선인 탈중앙화되고 개방된 환경을 만드는 것입니다. 함께 우리는 AI를 개인과 커뮤니티를 모두 강화하는 힘으로 변모시켜 더 연결되고 안전하며 공정한 세상을 향해 나아갈 것입니다.
About the Author
Sean (Xiang) Ren, CEO and Co-Founder of Sahara AI
Sean is the CEO and Co-Founder of Sahara AI, a decentralized AI blockchain platform for a collaborative economy. Backed by top investors in AI and Crypto, including Binance Labs, Pantera Capital, Polychain Capital, Sequoia Capital, Samsung Next, Matrix Partners, and many more, Sahara AI has raised over $40 million to advance decentralized AI. Today, Sahara AI is trusted by 35+ leading tech innovators and research institutions, such as Microsoft, Amazon, MIT, Character AI, and Snapchat. Additionally, Sean is an Associate Professor in Computer Science and the Andrew and Erna Viterbi Early Career Chair at the University of Southern California, where he is the Principal Investigator (PI) of the Intelligence and Knowledge Discovery (INK) Research Lab. At Allen Institute for AI, Sean contributes to machine common sense research. Prior, Sean was a Data Science Advisor at Snapchat. He completed his PhD in computer science from the University of Illinois Urbana-Champaign and was a postdoctoral researcher at Stanford University. Sean has received many awards recognizing his research and innovation in the AI space including the WSDM Test of Time Paper Award, Samsung AI Researcher of 2023, MIT TR Innovators Under 35, Forbes 30 Under 30, and more.
References
1 Ethan Buchman, Jae Kwon, and Zarko Milosevic. The latest gossip on bft consensus, 2019.
2 Diederik P Kingma and Max Welling. Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114, 2013.
3 Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. Advances in neural information processing systems, 27, 2014.
4 Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models, 2020.
5 Alec Radford and Karthik Narasimhan. Improving language understanding by generative pre-training. 2018.
6 Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, 33:1877–1901, 2020.
7 Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timoth´ee Lacroix, Baptiste Rozi`ere, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. ArXiv, abs/2302.13971, 2023.
8 Albert Qiaochu Jiang, Alexandre Sablayrolles, Arthur Mensch, Chris Bamford, Devendra Singh Chaplot, Diego de Las Casas, Florian Bressand, Gianna Lengyel, Guillaume Lample, Lucile Saulnier, L’elio Renard Lavaud, Marie-Anne Lachaux, Pierre Stock, Teven Le Scao, Thibaut Lavril, Thomas Wang, Timoth´ee Lacroix, and William El Sayed. Mistral 7b. ArXiv, abs/2310.06825, 2023.
9 Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
10 Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
11 Guanzhi Wang, Yuqi Xie, Yunfan Jiang, Ajay Mandlekar, Chaowei Xiao, Yuke Zhu, Linxi (Jim) Fan, and Anima Anandkumar. Voyager: An open-ended embodied agent with large language models. ArXiv, abs/2305.16291, 2023.
12 Sirui Hong, Xiawu Zheng, Jonathan P. Chen, Yuheng Cheng, Ceyao Zhang, Zili Wang, Steven Ka Shing Yau, Zi Hen Lin, Liyang Zhou, Chenyu Ran, Lingfeng Xiao, and Chenglin Wu. Metagpt: Meta programming for multi-agent collaborative framework. ArXiv, abs/2308.00352, 2023.
13 Noah Shinn, Beck Labash, and Ashwin Gopinath. Reflexion: an autonomous agent with dynamic memory and self-reflection. ArXiv, abs/2303.11366, 2023.
14 Zijun Liu, Yanzhe Zhang, Peng Li, Yang Liu, and Diyi Yang. Dynamic llm-agent network: An llm-agent collaboration framework with agent team optimization. ArXiv, abs/2310.02170, 2023.
15 Murray Shanahan, Kyle McDonell, and Laria Reynolds. Role play with large language models. Nature, 623:493–498, 2023.
16 Zhenhailong Wang, Shaoguang Mao, Wenshan Wu, Tao Ge, Furu Wei, and Heng Ji. Unleashing the emergent cognitive synergy in large language models: A task-solving agent through multi-persona self-collaboration. In North American Chapter of the Association for Computational Linguistics, 2023.
17 Wenlong Huang, P. Abbeel, Deepak Pathak, and Igor Mordatch. Language models as zero-shot planners: Extracting actionable knowledge for embodied agents. ArXiv, abs/2201.07207, 2022.
18 Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback, 2022.
19 Rafael Rafailov, Archit Sharma, Eric Mitchell, Stefano Ermon, Christopher D. Manning, and Chelsea Finn. Direct preference optimization: Your language model is secretly a reward model, 2023.
20 Patrick Lewis, Ethan Perez, Aleksandara Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Kuttler, Mike Lewis, Wen tau Yih, Tim Rockt¨aschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive nlp tasks. ArXiv, abs/2005.11401, 2020.
21 Yunfan Gao, Yun Xiong, Xinyu Gao, Kangxiang Jia, Jinliu Pan, Yuxi Bi, Yi Dai, Jiawei Sun, Meng Wang, and Haofen Wang. Retrieval-augmented generation for large language models: A survey, 2024.
22 Yongchao Chen, Jacob Arkin, Yang Zhang, Nicholas Roy, and Chuchu Fan. Scalable multi-robot collaboration with large language models: Centralized or decentralized systems? arXiv preprint arXiv:2309.15943, 2023.
23 Rui Hao, Linmei Hu, Weijian Qi, Qingliu Wu, Yirui Zhang, and Liqiang Nie. Chatllm network: More brains, more intelligence. ArXiv, abs/2304.12998, 2023.
24 Xudong Guo, Kaixuan Huang, Jiale Liu, Wenhui Fan, Natalia V´elez, Qingyun Wu, Huazheng Wang, Thomas L Griffiths, and Mengdi Wang. Embodied llm agents learn to cooperate in organized teams. arXiv preprint arXiv:2403.12482, 2024.
25 Yashar Talebirad and Amirhossein Nadiri. Multi-agent collaboration: Harnessing the power of intelligent llm agents. ArXiv, abs/2306.03314, 2023.
26 Tian Liang, Zhiwei He, Wenxiang Jiao, Xing Wang, Yan Wang, Rui Wang, Yujiu Yang, Zhaopeng Tu, and Shuming Shi. Encouraging divergent thinking in large language models through multi-agent debate. ArXiv, abs/2305.19118, 2023.
27 Alexander Borzunov, Dmitry Baranchuk, Tim Dettmers, Max Ryabinin, Younes Belkada, Artem Chumachenko, Pavel Samygin, and Colin Raffel. Petals: Collaborative inference and fine-tuning of large models, 2023.
28 Ziheng Jiang, Haibin Lin, Yinmin Zhong, Qi Huang, Yangrui Chen, Zhi Zhang, Yanghua Peng, Xiang Li, Cong Xie, Shibiao Nong, Yulu Jia, Sun He, Hongmin Chen, Zhihao Bai, Qi Hou, Shipeng Yan, Ding Zhou, Yiyao Sheng, Zhuo Jiang, Haohan Xu, Haoran Wei, Zhang Zhang, Pengfei Nie, Leqi Zou, Sida Zhao, Liang Xiang, Zherui Liu, Zhe Li, Xiaoying Jia, Jianxi Ye, Xin Jin, and Xin Liu. Megascale: Scaling large language model training to more than 10,000 gpus, 2024.
29 Xisen Jin, Xiang Ren, Daniel Preotiuc-Pietro, and Pengxiang Cheng. Dataless knowledge fusion by merging weights of language models, 2023.
30 Mitchell Wortsman, Gabriel Ilharco, Samir Yitzhak Gadre, Rebecca Roelofs, Raphael Gontijo-Lopes, Ari S. Morcos, Hongseok Namkoong, Ali Farhadi, Yair Carmon, Simon Kornblith, and Ludwig Schmidt. Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time, 2022.
31 Michael Matena and Colin Raffel. Merging models with fisher-weighted averaging, 2022.
32 Zhuoran Zhao, Kamyar Mirzazad Barijough, and Andreas Gerstlauer. Deepthings: Distributed adaptive deep learning inference on resource-constrained iot edge clusters. IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems, 37:2348– 2359, 2018.
33 Bingyang Wu, Yinmin Zhong, Zili Zhang, Gang Huang, Xuanzhe Liu, and Xin Jin. Fast distributed inference serving for large language models. ArXiv, abs/2305.05920, 2023.
34 Zeyu Han, Chao Gao, Jinyang Liu, Jeff Zhang, and Sai Qian Zhang. Parameter-efficient fine-tuning for large models: A comprehensive survey, 2024.
35 Fanxu Meng, Zhaohui Wang, and Muhan Zhang. Pissa: Principal singular values and singular vectors adaptation of large language models, 2024.
36 Yixiao Li, Yifan Yu, Chen Liang, Pengcheng He, Nikos Karampatziakis, Weizhu Chen, and Tuo Zhao. Loftq: Lora-fine-tuning-aware quantization for large language models, 2023.
37 Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models, 2021.
38 Martin Abadi, Andy Chu, Ian Goodfellow, H. Brendan McMahan, Ilya Mironov, Kunal Talwar, and Li Zhang. Deep learning with differential privacy. In Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security, CCS’16. ACM, October 2016.
39 Bj¨orn Bebensee. Local differential privacy: a tutorial, 2019.
40 Tong Wu, Ashwinee Panda, Jiachen T. Wang, and Prateek Mittal. Privacy-preserving in-context learning for large language models, 2023.
41 Da Yu, Saurabh Naik, Arturs Backurs, Sivakanth Gopi, Huseyin A. Inan, Gautam Kamath, Janardhan Kulkarni, Yin Tat Lee, Andre Manoel, Lukas Wutschitz, Sergey Yekhanin, and Huishuai Zhang. Differentially private fine-tuning of language models, 2022.
42 Tianyu Chen, Hangbo Bao, Shaohan Huang, Li Dong, Binxing Jiao, Daxin Jiang, Haoyi Zhou, Jianxin Li, and Furu Wei. The-x: Privacy-preserving transformer inference with homomorphic encryption, 2022.
43 Kanav Gupta, Neha Jawalkar, Ananta Mukherjee, Nishanth Chandran, Divya Gupta, Ashish Panwar, and Rahul Sharma. Sigma: secure gpt inference with function secret sharing. Cryptology ePrint Archive, 2023.
44 Th'eo Ryffel , Pierre Tholoniat, David Pointcheval, and Francis R. Bach. Ariann: Lowinteraction privacy-preserving deep learning via function secret sharing. Proceedings on Privacy Enhancing Technologies, 2022:291 – 316, 2020.
45 KD Conway, Cathie So, Xiaohang Yu, and Kartin Wong. opml: Optimistic machine learning on blockchain, 2024.
46 Haochen Sun, Jason Li, and Hongyang Zhang. zkllm: Zero knowledge proofs for large language models, 2024.
Glossaries
- AI Models: AI models are algorithms designed to simulate human intelligence by learning from data. These models can recognize patterns, make decisions, and even generate content based on what they’ve learned. AI models range from narrow AI, which specializes in specific tasks, to more general models that handle a broader range of functions. Examples include neural networks, decision trees, and regression models.
- Generative Models: These AI models are designed to create new content, such as text, images, music, or video. Generative models work by learning patterns from large datasets and using this knowledge to generate new data that resembles the original. Common types of generative models include transformers.
- Transformers: A type of deep learning model architecture that excels in processing sequential data, like language. Transformers use self-attention mechanisms to weigh the importance of different parts of the input data simultaneously, making them effective for tasks like translation, text generation, and more. Transformers are the foundation for many modern large language models.
- Large Language Models (LLMs): These are a subset of transformers trained on massive amounts of text data. LLMs are capable of generating human-like text by predicting the next word in a sequence based on the context provided. They are versatile and can perform various tasks such as writing, translation, and summarization.
- AI Agent: An AI agent is an autonomous program that interacts with its environment to perform tasks, make decisions, and achieve specific goals. AI agents can be simple, like a virtual assistant that schedules appointments, or complex, like a self-driving car that navigates through traffic.
- Parameter Efficient Fine-Tuning (PEFT): PEFT refers to techniques that enable fine-tuning large pre-trained models with fewer parameters, making the process more resource-efficient. PEFT methods like LoRA or adapters focus on updating only a small part of the model, reducing computational cost while maintaining performance.
- LoRA (Low-Rank Adaptation): LoRA is a PEFT method that adds small, trainable matrices to the layers of a large language model. Instead of updating the entire model during fine-tuning, LoRA modifies these low-rank matrices, which represent a smaller subset of the model’s parameters. This approach significantly reduces the number of parameters that need adjustment, speeding up the process and reducing resource usage while maintaining or enhancing performance.
- Retrieval Augmented Generation (RAG): RAG is a hybrid approach that combines retrieval-based methods with generative models. In RAG, the model first retrieves relevant information from a database or document set and then uses that information to generate a response. This method allows the model to provide more accurate and contextually relevant answers, especially in cases where up-to-date or specialized information is required.
- Differential Privacy: Differential privacy is a technique used to protect individual privacy in datasets by adding random noise to the data. This ensures that the data can be used for analysis without revealing sensitive information about individuals, making it useful in contexts like sharing private records or training AI models with personal data.
- Model Merging: The process of combining two or more AI models to create a new model that benefits from the strengths of each original model. Model merging can be used to improve performance, incorporate diverse knowledge, or combine different capabilities into a single, more powerful model.