Chapter XIII: DePIN¶
The infrastructure you depend on (cell towers, cloud servers, street maps) has always been built the same way: a corporation deploys hardware from the top down, and operates it as a proprietary network. This model works, but it's expensive and selective. Companies build where returns are highest, leaving vast swaths of the world underserved.
What if there was another way? What if ordinary people could collectively build global infrastructure by running hardware from their homes, cars, and businesses, coordinated not by a corporate hierarchy but by crypto-economic incentives encoded in a protocol?
This is DePIN: **Decentralized Physical Infrastructure Networks**. It sits alongside DeFi and NFTs as a third pillar of crypto. Instead of just moving money or ownership records, DePIN pushes blockchains into the physical world. The model replaces centralized capital budgets with distributed participation, turning hobbyists and small businesses into the operators of networks that rival, and sometimes surpass, what incumbents have built.
By late 2022, one such network called Helium had close to one million small wireless devices deployed across nearly 200 countries. Most weren't carrier-owned towers. They were modest boxes plugged into living rooms, shops, and warehouses, installed by individuals who earned cryptocurrency for providing IoT (Internet of Things) coverage. In just a few years, this community-built network grew large enough to rival traditional deployments that took telecom companies decades and billions of dollars to establish.
Around the same time, Hivemapper launched a decentralized mapping network that pays drivers to collect street-level imagery with dashcams. By 2024, contributors had mapped roughly 16 million unique kilometers of roads, more than a quarter of the world's road network, at a pace that outstripped Google Street View's historical expansion. They used ordinary cars and token incentives instead of dedicated mapping fleets.
These aren't quirky side projects. They represent a broader pattern showing how the model works in practice. Most projects rely on the same base crypto infrastructure, but their success is constrained by hardware and local economics, not just code.
Dead zones on your phone, $200 cloud bills, and towns stuck on 3 Mbps DSL are not accidents; they're features of how we fund infrastructure. For centralized incumbents like AT\&T or AWS, every new tower, fiber run, or data center is a spreadsheet exercise in capital expenditure versus long-term return.
Running fiber optics to a rural town of 500 people requires millions of dollars in upfront investment, yet the monthly subscription revenue might take decades to repay that debt. The result is the **centralization trap**, where infrastructure is deployed only in dense, profitable urban centers, leaving the long tail of the global population underserved.
### The DePIN Inversion
DePIN flips this model on its head. Instead of one company raising billions to build a proprietary network, a protocol coordinates thousands of people to deploy hardware themselves. There's no top-down rollout plan; the network grows wherever the incentives make it worth someone's time to plug a device in.
The core bet is simple: if you pay people in the right way, a community can spin up a global network faster and cheaper than any single company. The protocol doesn't lay cables or buy servers; it runs the marketplace, letting anyone plug in hardware and earn, with the economics baked directly into code via native tokens and on-chain metering.
A network with no CEO still needs a way to make decisions. As with other crypto protocols, DePIN networks rely on token-based governance (the mechanisms explored in Chapter XII). Token holders vote on critical parameters like hardware specifications, emission schedules, and protocol upgrades. Often, these voters are the operators themselves, meaning the network is owned and operated by the **supply side**. This creates a self-organizing system where individual profit motives are harnessed to build a unified public utility.
Not all DePINs ask for the same kind of commitment. Hardware-heavy projects require operators to buy and install dedicated devices, pay for power and internet connectivity, and handle maintenance. Lighter-weight designs instead ask you to share existing resources: your home internet, phone sensors, or spare storage. This shifts the cost from hard cash to your time, attention, and risk tolerance.
If the goal is to build a global network without a central treasury, the immediate hurdle is the **cold-start problem**. In the early days, a network has no utility and therefore no customers. A ride-sharing app with no drivers has no riders, and a telecom network with no towers has no subscribers.
While a traditional startup burns venture capital to subsidize this phase, DePIN protocols utilize **token emissions** as a temporary subsidy. Early adopters purchase and deploy hardware not because there is existing demand, but to capture these emissions, effectively acting as angel investors who are paid in equity-like tokens rather than in cash.
### The Emission Schedule
This mechanism only works if two things line up: the emission schedule and real demand for the token. If tokens are released too aggressively, inflation crushes their value, and rewards stop mattering. If they're released too slowly, nobody is willing to buy expensive hardware in the first place.
In the early stages, most of the real-world cost is actually carried by passive buyers. Operators sell part of their rewards to cover hardware and operating costs, while speculators absorb that sell pressure. These speculators aren't funding the network out of altruism; they're betting it will be worth much more later. Bitcoin followed this same pattern: miners mined to make money and sell BTC to pay their power bills, while long-term holders financed the build-out by buying what miners had to dump.
DePIN projects like Helium often employ a halving schedule similar to Bitcoin's, where rewards drop at fixed intervals to create urgency. To prevent hardware from clustering in already saturated cities, these schedules frequently include **geographic multipliers** that offer higher rewards for deploying in underserved areas. These geographic zones discretize the world into reward-bearing cells, steering the physical growth of the network through economic code.
### The Transition to Real Revenue
Emissions are a bootstrap subsidy, not a business model. In the long run, a DePIN network must be funded by real customers paying real money. For the token to have durable value, some portion of that external revenue needs to flow back to token holders, whether through a treasury, fee-sharing, or buy-and-burn mechanics.
A common approach is the **burn-and-mint equilibrium**, similar to buyback-and-burn mechanisms in token economics (Chapter XII). Using the network requires burning the native token, permanently reducing its supply. If those tokens were first bought with outside capital (for example, customers paying in fiat while an intermediary buys and burns tokens on their behalf), then network revenue effectively repurchases and destroys supply. Over time, this can support the token price and keep operator rewards economically meaningful, assuming usage grows large enough relative to new issuance and selling pressure.
Helium demonstrates this design in practice. Access to the network is paid for in Data Credits, non-transferable units with a fixed dollar price per data packet. These credits are created only by burning the native HNT token at the current oracle price. For packets to flow, someone must ultimately spend money, acquire HNT, and burn it into credits. Every packet transmitted corresponds to a small amount of HNT supply being retired.
This structure links HNT's value to actual network usage rather than speculation alone. However, the strength of that link depends on scale. As long as token emissions and speculative trading dominate, burning remains mostly a structural feature waiting for real demand.
A DePIN network becomes economically sustainable only when usage-driven burns grow large enough to meaningfully offset emissions and fund operator rewards without relying on an endless stream of new speculators.
### Revenue Model Diversity
Beyond Helium, most DePIN networks experiment with various revenue models that must eventually replace emissions as the primary source of value. Some charge directly for consumption through per-gigabyte storage fees or per-compute-hour costs. Others layer on subscription plans for predictable recurring income, particularly in connectivity and SaaS-like offerings. Many capture transaction fees on in-network payments or monetize aggregated, anonymized datasets sold to enterprises, research institutions, or application developers.
### Token Supply Mechanics
Token supply mechanics vary widely across networks, even when they're solving similar problems.
Take Filecoin, a decentralized storage network where users pay to have their data stored by independent providers. Each transaction on Filecoin includes a base fee that is burned, permanently removing those tokens from circulation, while storage providers earn new tokens through block rewards and user-paid storage deals. This combines inflationary issuance (to reward providers) with built-in deflation (via burned fees).
On the compute side, Render Network coordinates GPU providers to perform rendering and AI workloads. Here, token burns are tied directly to completed jobs: when users pay for rendering, a portion of the tokens involved is destroyed, so supply reduction is explicitly linked to delivered compute.
Many other DePIN designs add a third ingredient: staking. Operators must lock up tokens as collateral to participate, taking those tokens out of effective circulation. If they fail to meet service guarantees or act dishonestly, part of that stake can be slashed (similar to validator slashing in Proof-of-Stake systems, covered in Chapter II). Between burned fees, job-linked burns, and staked collateral, each network assembles a different mix of inflation and deflation to align incentives and anchor long-term token value in actual usage.
When these systems work, they exhibit powerful network effects. Early deployments may see little usage, but as coverage density increases and more applications integrate the network, usage and revenue per node can rise non-linearly. When the cycle runs in reverse, the network faces a potential death spiral: usage stalls, token burns decrease, the price drops, and hardware operators begin unplugging their nodes as rewards no longer cover electricity, bandwidth, and maintenance.
The economic incentives described above are powerful, but they create a secondary problem: fraud. If a network pays anonymous actors to provide wireless coverage or store files, bad actors will inevitably try to claim rewards without doing the work.
Therefore, the technical architecture of DePIN exists primarily to answer one question: did you actually provide the service? This requires an ecosystem of service providers who deploy the physical assets, and validators and oracles who confirm the work.
### The Roles and Responsibilities
The verification process relies on distinct, incentivized roles. At the foundation are the service providers, the hardware operators who deploy and maintain the physical assets, such as hotspots, storage servers, or sensors.
Service providers typically must meet minimum hardware, connectivity, and uptime requirements. Performance monitoring tracks throughput, latency, and reliability, and many networks maintain on-chain or off-chain reputation scores that route more traffic and fees to consistently reliable operators.
Monitoring their performance are validators and oracles. Unlike service providers, validators contribute computational resources rather than physical infrastructure, confirming cryptographic evidence of service. In many networks, these validation duties are further specialized: challenge generators create randomized verification tasks, while witness networks independently confirm responses, adding redundancy against collusion.
Oracles serve as the bridge between the physical and digital worlds, verifying off-chain data such as local weather conditions or vehicle location and relaying it on-chain for reward calculations. (Oracle networks and their security considerations were introduced in Chapter VII's infrastructure dependencies section.)
### Proof-of-Coverage for Wireless Networks
In wireless networks, verification is achieved through Proof-of-Coverage. Hotspots periodically issue radio challenges, encrypted packets sent over the airwaves, to their neighbors. When a nearby hotspot witnesses this packet, it reports the signal strength to the network, creating a cryptographic map of coverage anchored in physical radio propagation.
A key tuning knob is the challenge frequency. Challenge too often and verification floods the network with data and cost; challenge too rarely and attackers have wide windows to spoof coverage without being caught. Most designs are a compromise: enough probes to make cheating unprofitable, but not so many that verification overwhelms the economic value of the service.
To represent coverage in a way that resists gaming, the world is often divided into a hexagonal grid that prevents tightly co-located hotspots from claiming outsized rewards for overlapping service. To manage the massive data load of verifying millions of radio pings, many implementations offload computation to specialized oracle networks (introduced earlier in this chapter and covered in depth in Chapter VII), which aggregate raw witness data and post summarized proofs to a high-throughput blockchain such as Solana.
### Proof-of-Spacetime for Storage Networks
Storage networks face a different challenge: proving that data is not just stored, but persists over time. Filecoin replaces the legal contracts and service-level agreements of centralized providers with two cryptographic systems that target these questions directly: **Proof-of-Replication** and Proof-of-Spacetime.
Proof-of-Replication is used when the deal starts. The storage provider takes the client's data, creates a uniquely encoded copy of it on their own hardware, and produces a proof that this specific copy exists on their disks. This prevents a dishonest operator from pretending to offer large capacity while actually reusing the same underlying data for many different clients.
Proof-of-Spacetime is used over the lifetime of the deal. The network needs to be convinced that the data is still there, but checking every byte of every file all the time would be too costly. Instead, Filecoin uses probabilistic sampling. On a regular schedule, roughly once per day, the protocol asks the provider to prove they still hold randomly chosen pieces of the stored data. If they can respond correctly and on time, the network treats that as strong evidence that the full encoded copy remains available.
In Filecoin, these ongoing checks are implemented in a system called **WindowPoSt**, short for Window Proof-of-Spacetime. Each time window comes with its own set of challenges and proofs that the provider must submit. If they miss these proofs or submit invalid ones, part of their locked collateral can be slashed and their future rewards reduced. Reliability is enforced not by courts, but by automatic economic penalties that trigger when the proofs fail.
### The Location Problem
The most difficult technical vector to secure is location. Because many networks incentivize geographic expansion, they are vulnerable to **GPS spoofing**, where operators use software to fake their coordinates and harvest rewards intended for underserved areas. The defense against this is a constant arms race.
Protocols employ triangulation to validate location via signal strength between peer devices, and increasingly use **proof-of-location** hardware with secure elements that sign GPS data at the chip level. Some networks, like Hivemapper, add a layer of AI-based behavioral analysis, flagging non-organic patterns or using visual data to confirm that a camera is actually moving through the physical world.
Many designs also rely on stake-based deterrence, requiring operators to lock tokens that can be slashed if manipulation is detected, and on community reporting tools that allow participants to flag suspicious deployments for targeted audits. Together, these mechanisms attempt to shift location spoofing from a low-risk software trick into a high-risk economic gamble.
### The Building Blocks
These economic and verification primitives are the building blocks of DePIN. Different infrastructure types recombine them in different proportions, trading off hardware cost, proof complexity, regulatory exposure, and demand patterns.
To see how this works in practice, it is useful to examine how DePIN architectures diverge across the three primary challenge domains: geographic coverage, data persistence, and computational resources.
With the foundational mechanics established, we can now examine how different DePIN projects apply these principles to solve specific infrastructure challenges. Each category faces unique technical and economic hurdles that shape its architecture.
### Geographic Coverage Networks
Geographic coverage networks aim to fill physical space with hardware in order to provide connectivity or environmental data. Their core challenge is incentivizing deployment in the right places and proving that the deployed hardware is genuinely present and active.
#### Wireless Connectivity: The Helium Model
In wireless connectivity, Helium serves as the archetype for the field-deploy model. By incentivizing individuals to host low-power wireless hotspots designed for IoT devices, the network deployed over 900,000 nodes across roughly 170 countries, validating the thesis that token incentives can finance massive capital expenditures without a centralized carrier balance sheet.
Historically, rewards for operators were split between providing coverage, witnessing other hotspots' challenges, and actually transferring user data, directly translating the emission and burn mechanics discussed earlier into physical network growth.
However, Helium also illustrated the volatility of the model. As the network pivoted toward 5G cellular coverage and Wi-Fi offload in later years, it had to manage the complex transition from a pure coverage-building phase to a usage-generation phase, competing directly with established carriers on reliability and customer experience, while governance debated how quickly to shift rewards from coverage to actual traffic.
#### Mapping Networks: Hivemapper vs. Google
Mapping and sensor networks confront similar coverage challenges in different data modalities. Hivemapper challenges Google Street View by paying drivers to mount dashcams, resulting in a map that can update weekly rather than annually.
By early 2026, Hivemapper contributors had mapped more than 500 million kilometers of roads and reported coverage of roughly one-third of the global road network, a remarkable pace for a network only a few years old. Google, by contrast, has accumulated on the order of ten million miles of Street View imagery over more than a decade, with near-universal coverage in many countries but slower refresh cycles.
Hivemapper's comparative advantage lies not in absolute coverage, where Google still dominates in many regions, but in freshness and marginal cost. Traditional mapping requires expensive fleets of dedicated cars and staff; DePIN turns data collection into a background task for existing drivers, whose rewards depend on location and novelty of coverage.
Because those rewards are location-sensitive, Hivemapper leans heavily on proof-of-location techniques and AI-based validation to ensure that images correspond to real-world streets rather than fabricated or replayed footage.
#### Environmental Sensor Networks
Environmental sensor networks extend the same pattern to weather and air quality. WeatherXM operates personal weather stations spread across dozens of countries, cross-validating their readings against nearby stations and satellite imagery and rewarding operators with tokens based on data quality and consistency.
The value proposition is hyper-local coverage that national meteorological agencies or commercial providers would struggle to justify financially. Planetwatch applies a similar playbook to air quality: calibrated sensors, often installed in homes, offices, or street fixtures, feed regulatory-grade measurements into the network.
Token rewards are tied to sensor class and sustained uptime, and the resulting datasets are used for public health research, climate analysis, and, in some cases, regulatory monitoring. Here, the trade-off with centralized systems is not purely cost; traditional networks may offer more controlled and audited instrumentation, but DePIN can produce vastly denser coverage if it solves the problems of calibration, fraud, and long-term operator incentives.
### Data Persistence Networks
While geographic coverage networks focus on where hardware is deployed, data persistence networks focus on whether data remains available at the right price over the right time horizon. Their primary challenge is replacing corporate contracts and service guarantees with cryptographic and economic enforcement.
#### Filecoin: The Open Marketplace
Filecoin operates as an open marketplace for storage. Miners compete to offer capacity, and clients negotiate deals specifying price, duration, redundancy, and geographic preferences.
Public analyses have found that, in some periods, advertised Filecoin storage prices have been on the order of a few dollars per terabyte per year, compared to twenty to thirty dollars per terabyte per year for standard AWS S3 tiers, implying an order-of-magnitude cost difference when promotional incentives and aggressive competition are in play. These headline numbers must be treated cautiously: effective cost depends on replication factors, retrieval pricing, and operational complexity. Nonetheless, the competitive pressure is real.
IPFS, the InterPlanetary File System (also mentioned in Chapter XI's NFT storage discussion), sits alongside Filecoin as the addressing and distribution layer, identifying files by their cryptographic hash rather than their location. Filecoin adds the incentive layer to ensure that critical content persists over time, using Proof-of-Replication, WindowPoSt, and slashing to enforce deals without traditional legal contracts.
#### Arweave: The Endowment Model
Arweave (also mentioned in Chapter XI's NFT storage discussion) takes a fundamentally different approach, offering permanent storage via an **endowment model**. Users pay a one-time, upfront fee that is effectively invested into a storage endowment; miners are then rewarded from this pool for storing historical data, ensuring that the network's permanent data archive remains accessible indefinitely without recurring monthly payments.
In practice, this model has produced user-facing prices that have often been in the single-digit dollars per gigabyte range for long-term storage, which can be expensive for very large datasets but attractive for high-value archival content such as cultural artifacts, legal records, or irreplaceable application state.
Here the trade-off with AWS is not only price, but time horizon and control. A corporate provider can change pricing or discontinue a service line; Arweave's promise is that, as long as the network and its token economy survive, the data will remain accessible without further negotiation.
#### The Storage Stack
Taken together, IPFS, Filecoin, and Arweave illustrate three layers of a DePIN storage stack. IPFS handles how data is addressed and moved, Filecoin offers a market for economically enforced persistence over defined terms, and Arweave provides an option for data that must be preserved for very long horizons or effectively forever.
Each makes different trade-offs between cost, complexity, and assurance.
### Computational Resource Networks
The final category of DePIN infrastructure monetizes idle or underutilized processing power rather than physical coverage or storage capacity. Their challenge is transforming a fragmented landscape of heterogeneous machines into something that feels, from the user's perspective, like a coherent cloud.
#### Render Network: Tapping Idle GPUs
The GPU shortage of 2023 highlighted the inefficiency of centralized clouds, where premium chips were scarce and expensive while consumer-grade GPUs sat idle in gaming PCs worldwide. Render Network taps into this sunk cost.
It aggregates idle GPUs for rendering and AI tasks, dispatching work to nodes that advertise compatible hardware and acceptable pricing. A Proof-of-Render mechanism splits jobs across multiple nodes and verifies outputs via redundancy or cryptographic checks: for example, by re-rendering small portions of a job or comparing hashes of deterministic outputs.
Nodes that return invalid or low-quality results can be penalized or excluded from future work based on reputation.
#### Akash: General Cloud Computing
Akash extends this model to general cloud computing. It creates a reverse-auction marketplace where tenants specify their requirements (CPU, memory, storage, duration) while providers bid to fulfill them, rather than forcing users to accept the fixed-price menus set by Amazon or Google.
Because many providers have already paid for their hardware for gaming, mining, or existing data center workloads, they can often offer compute at a steep discount compared to centralized cloud margins, particularly for non-critical or burst workloads.
As with other DePIN networks, the theoretical advantage is price and flexibility; the practical constraint is reliability, orchestration complexity, and compliance.
Having explored the theoretical models and practical implementations, we must now confront the gap between DePIN's promise and its current reality. Despite rapid deployment metrics and compelling price comparisons, DePIN has not yet displaced traditional infrastructure. The barriers to mass adoption are significant, and they exist in the messy reality of reliability, security, regulation, governance, and user experience.
### The Reliability Challenge
Reliability is the most visible hurdle, but it is not as binary as the phrase "five nines" suggests. Enterprise infrastructure demands 99.999 percent uptime for mission-critical workloads, and centralized providers achieve this through over-provisioned capacity, professional operations teams, and contractual service-level agreements.
A DePIN network, by contrast, is an aggregate of thousands of amateur operators with heterogeneous hardware and varying levels of commitment. If a node operator goes on vacation and their internet cuts out, the service degrades.
Protocols attempt to mitigate this through redundancy, reputation systems, and slashing, and for many use cases, personal file backup, non-critical IoT data collection, edge caching for latency-tolerant applications, 99.9 percent uptime at a fraction of the cost may be entirely acceptable.
The challenge is that the highest-value workloads, and thus the largest revenue pools, tend to be the ones that demand the highest reliability. Until DePIN can either directly meet those standards or enable reliable service providers to build on top of it as a wholesale layer, it will be confined to a subset of the potential market.
### Security Vulnerabilities
Security sits alongside reliability as a hard constraint. DePIN networks inherit all the usual failure modes of crypto systems: smart contract exploits, misconfigured oracles, attacks on the underlying consensus layer. But they add a new hardware attack surface.
A vulnerability in a popular hotspot model or sensor firmware can be exploited across tens of thousands of nodes at once, undermining the integrity of the proofs the network relies on to decide who gets paid. Protocols can respond with software patches, more aggressive challenge schemes, and slashing, but the combination of standardized hardware and pseudonymous operators makes systemic failures both possible and, in some cases, hard to remediate quickly.
### Regulatory Complexity
Regulation further complicates the picture. These networks operate in physical jurisdictions with legal frameworks that are indifferent to blockchain immutability. Telecom networks must navigate spectrum licensing and comply with national telecom regulations. Storage and mapping networks face data sovereignty laws like the EU's GDPR and privacy concerns regarding public surveillance. Environmental sensor networks must align with standards for measurement accuracy and reporting.
A hostile regulatory action, such as banning unlicensed spectrum usage, restricting the export of certain data types, or classifying tokens as unregistered securities, can severely cripple a network's utility. Unlike purely digital DeFi protocols, DePIN projects cannot simply "exit to cyberspace"; their hardware and many of their operators are rooted in specific countries.
### Market Cyclicality
All of this sits on top of volatile crypto markets. When token prices crash, rewards can suddenly fall below operators' real-world costs even if usage is steady. This cyclicality makes DePIN unusually sensitive to broader crypto market swings. A bear market can trigger mass unplugging long before the underlying infrastructure thesis is actually disproven.
In practice, many networks experience a brief period of extreme token appreciation early in their lifetime. During this window, headline yields look absurdly attractive in fiat terms, pulling in operators and capital far faster than organic demand justifies. Hardware fleets get built to serve a price signal, not real usage. Expectations anchor around those inflated rewards.
When the inevitable correction comes, often with drawdowns of 90 to 99 percent from peak, the economics flip overnight. The same fleet that looked wildly profitable now struggles to cover electricity, bandwidth, and maintenance. The result is a reflexive unwind: unplugging degrades service quality, which further discourages demand and reinforces the downtrend.
The key long-term metric is whether usage-driven burns can eventually outpace emissions, creating sustainable demand independent of speculation. Most networks never cross this threshold.
### The Governance and Usability Paradox
Ultimately, the model faces a governance and usability paradox. Token-weighted governance can be slow, contentious, and captured by large holders, making it difficult to execute the rapid pivots often required in hardware-intensive industries.
Operators, speculators, and end users often have conflicting priorities, and without careful design the decision-making process can amplify short-term interests at the expense of long-term network health. At the same time, the user experience for the **demand side** (the actual consumers of data, storage, or connectivity) often involves friction-heavy wallets, bridges, and gas fees.
For many potential customers, any theoretical economic advantage is offset by operational complexity and perceived risk.
### The Path Forward
Yet it would be premature to dismiss DePIN as merely a proof of concept. The networks in this chapter already demonstrate that loosely coordinated communities can build and operate real infrastructure at scale: global IoT coverage, petabyte-level storage markets, GPU render farms, and live environmental sensor grids.
The question is no longer whether the model works, but where it can scale. Moving from niche experiment to mainstream utility will likely require several key pieces. Networks need standardized service layers that bundle heterogeneous nodes into enterprise-grade offerings. Governance frameworks must move quickly without being captured. Regulatory regimes must learn how to classify and supervise decentralized operators. User interfaces need to make consuming DePIN services feel as simple as using today's clouds.
If those pieces fall into place, DePIN may not replace incumbents outright, but it can reshape them. Traditional platforms could evolve into brands that package, regulate, and resell services built on a global, community-owned substrate of physical infrastructure.
여러분이 의존하는 인프라(기지국, 클라우드 서버, 거리 지도)는 항상 같은 방식으로 구축되어 왔다. 기업이 하드웨어를 하향식으로 배치하고 독점 네트워크로 운영하는 방식이다. 이 모델은 작동하지만, 비용이 많이 들고 선별적이다. 기업들은 수익이 가장 높은 곳에만 구축하여, 세계의 광대한 지역을 서비스 부족 상태로 남겨둔다.
다른 방법이 있다면 어떨까? 일반 사람들이 집, 자동차, 사업체에서 하드웨어를 운영하여 글로벌 인프라를 집단적으로 구축할 수 있다면 어떨까? 기업 계층 구조가 아닌 프로토콜에 암호화된 암호경제적 인센티브로 조정된다면?
이것이 DePIN, 즉 **탈중앙화 물리적 인프라 네트워크(Decentralized Physical Infrastructure Networks)**이다. DeFi(탈중앙화 금융)와 NFT(대체 불가능 토큰)와 함께 암호화폐의 세 번째 기둥으로 자리 잡고 있다. 단순히 돈이나 소유권 기록을 이동하는 것이 아니라, DePIN은 블록체인을 물리적 세계로 확장한다. 이 모델은 중앙집중식 자본 예산을 분산 참여로 대체하여, 취미 활동가와 소규모 사업자들을 기존 기업들이 구축한 것에 필적하거나 때로는 능가하는 네트워크의 운영자로 만든다.
2022년 말, Helium이라는 네트워크는 약 200개국에 걸쳐 거의 100만 개의 소형 무선 장치를 배치했다. 대부분은 통신사 소유의 기지국이 아니었다. 거실, 상점, 창고에 설치된 소박한 장치들로, IoT(사물인터넷) 커버리지를 제공하는 대가로 암호화폐를 버는 개인들이 설치한 것이었다. 불과 몇 년 만에, 이 커뮤니티가 구축한 네트워크는 통신 회사들이 수십 년과 수십억 달러를 들여 구축한 전통적 배치에 필적할 만큼 성장했다.
비슷한 시기에, Hivemapper는 대시캠으로 거리 수준 이미지를 수집하는 운전자들에게 보상을 지급하는 탈중앙화 매핑 네트워크를 출시했다. 2024년까지, 기여자들은 세계 도로 네트워크의 4분의 1 이상인 약 1,600만 고유 킬로미터의 도로를 매핑했으며, Google Street View의 역사적 확장 속도를 능가하는 페이스였다. 그들은 전용 매핑 차량 대신 일반 자동차와 토큰 인센티브를 사용했다.
이것들은 별난 부수 프로젝트가 아니다. 모델이 실제로 어떻게 작동하는지를 보여주는 더 넓은 패턴을 나타낸다. 대부분의 프로젝트는 동일한 기본 암호화폐 인프라에 의존하지만, 그들의 성공은 코드뿐만 아니라 하드웨어와 지역 경제에 의해 제약된다.
Section I: The Infrastructure Gap¶
휴대폰의 음영 지역, 200달러 클라우드 요금, 3 Mbps DSL에 갇힌 마을들은 우연이 아니다. 우리가 인프라에 자금을 조달하는 방식의 특징이다. AT&T나 AWS 같은 중앙집중식 기존 업체들에게, 모든 새로운 기지국, 광섬유 설치, 또는 데이터 센터는 자본 지출 대 장기 수익의 스프레드시트 연습이다.
500명의 주민이 사는 시골 마을까지 광섬유를 연결하려면 수백만 달러의 선행 투자가 필요하지만, 월 구독 수익은 그 부채를 상환하는 데 수십 년이 걸릴 수 있다. 그 결과가 **중앙집중화 함정(Centralization Trap)**으로, 인프라는 밀집되고 수익성 있는 도심에만 배치되어 전 세계 인구의 롱테일을 서비스 부족 상태로 남겨둔다.
### DePIN의 반전
DePIN은 이 모델을 뒤집는다. 한 회사가 수십억을 모아 독점 네트워크를 구축하는 대신, 프로토콜이 수천 명의 사람들이 직접 하드웨어를 배치하도록 조정한다. 하향식 배포 계획이 없다. 네트워크는 인센티브가 누군가의 시간을 들여 장치를 연결할 가치가 있는 곳이면 어디든 성장한다.
핵심 베팅은 단순하다: 사람들에게 올바른 방식으로 지불하면, 커뮤니티가 어떤 단일 회사보다 더 빠르고 저렴하게 글로벌 네트워크를 가동할 수 있다. 프로토콜은 케이블을 깔거나 서버를 구매하지 않는다. 시장을 운영하여 누구나 하드웨어를 연결하고 수익을 얻을 수 있게 하며, 경제학은 네이티브 토큰과 온체인(On-chain) 계량을 통해 코드에 직접 구워진다.
CEO가 없는 네트워크도 의사 결정을 할 방법이 필요하다. 다른 암호화폐 프로토콜과 마찬가지로, DePIN 네트워크는 토큰 기반 거버넌스(제12장에서 탐구한 메커니즘)에 의존한다. 토큰 보유자들은 하드웨어 사양, 발행 일정, 프로토콜 업그레이드와 같은 중요한 매개변수에 투표한다. 종종 이 투표자들은 운영자 자신이며, 네트워크가 **공급 측(Supply Side)**에 의해 소유되고 운영됨을 의미한다. 이는 개인의 이익 동기가 통합된 공공 유틸리티를 구축하기 위해 활용되는 자기 조직화 시스템을 만든다.
Section II: The Economic Engine¶
모든 DePIN이 같은 종류의 헌신을 요구하는 것은 아니다. 하드웨어 집약적 프로젝트는 운영자가 전용 장치를 구매하고 설치하며, 전력과 인터넷 연결 비용을 지불하고, 유지보수를 처리해야 한다. 더 가벼운 설계는 대신 기존 자원을 공유하도록 요청한다: 가정 인터넷, 휴대폰 센서, 또는 여유 저장 공간. 이는 비용을 현금에서 시간, 주의, 위험 허용 범위로 전환한다.
중앙 자금 없이 글로벌 네트워크를 구축하려는 목표가 있다면, 즉각적인 장애물은 **콜드 스타트 문제(Cold-Start Problem)**이다. 초기에 네트워크는 유용성이 없으므로 고객이 없다. 운전자가 없는 차량 공유 앱에는 승객이 없고, 기지국이 없는 통신 네트워크에는 가입자가 없다.
전통적인 스타트업이 이 단계를 보조하기 위해 벤처 캐피털을 소진하는 반면, DePIN 프로토콜은 임시 보조금으로 **토큰 발행(Token Emissions)**을 활용한다. 초기 채택자들은 기존 수요가 있어서가 아니라 이 발행을 포착하기 위해 하드웨어를 구매하고 배치하며, 사실상 현금이 아닌 주식과 유사한 토큰으로 지급받는 엔젤 투자자 역할을 한다.
### 발행 일정
이 메커니즘은 두 가지가 맞아야만 작동한다: 발행 일정과 토큰에 대한 실제 수요. 토큰이 너무 공격적으로 발행되면 인플레이션이 가치를 붕괴시키고 보상이 의미 없어진다. 너무 느리게 발행되면, 애초에 비싼 하드웨어를 사려는 사람이 없다.
초기 단계에서, 실제 비용의 대부분은 사실 수동적 구매자들이 부담한다. 운영자들은 하드웨어와 운영 비용을 충당하기 위해 보상의 일부를 판매하고, 투기꾼들은 그 매도 압력을 흡수한다. 이 투기꾼들은 이타심에서 네트워크에 자금을 조달하는 것이 아니다. 나중에 훨씬 더 가치가 있을 것이라고 베팅하는 것이다. 비트코인도 같은 패턴을 따랐다: 채굴자들은 돈을 벌고 전기 요금을 지불하기 위해 BTC를 판매하려고 채굴했고, 장기 보유자들은 채굴자들이 덤핑해야 하는 것을 구매하여 구축을 자금 조달했다.
Helium과 같은 DePIN 프로젝트는 종종 비트코인과 유사한 반감기 일정을 사용하여, 보상이 고정된 간격으로 감소하여 긴급성을 만든다. 하드웨어가 이미 포화된 도시에 집중되는 것을 방지하기 위해, 이러한 일정에는 종종 서비스 부족 지역에 배치할 때 더 높은 보상을 제공하는 **지리적 승수(Geographic Multipliers)**가 포함된다. 이 지리적 구역은 세계를 보상을 받는 셀로 이산화하여, 경제적 코드를 통해 네트워크의 물리적 성장을 조정한다.
### 실제 수익으로의 전환
발행은 부트스트랩 보조금이지, 비즈니스 모델이 아니다. 장기적으로, DePIN 네트워크는 실제 고객이 실제 돈을 지불하여 자금을 조달해야 한다. 토큰이 지속적인 가치를 갖기 위해서는, 그 외부 수익의 일부가 재무부, 수수료 공유, 또는 바이백-앤-번(Buy-and-Burn) 메커니즘을 통해 토큰 보유자에게 다시 흘러가야 한다.
일반적인 접근 방식은 **번-앤-민트 균형(Burn-and-Mint Equilibrium)**으로, 토큰 경제학에서의 바이백-앤-번 메커니즘(제12장)과 유사하다. 네트워크를 사용하려면 네이티브 토큰을 소각해야 하며, 이는 공급을 영구적으로 줄인다. 이 토큰들이 먼저 외부 자본으로 구매되었다면(예를 들어, 고객이 법정화폐로 지불하고 중개자가 그들을 대신하여 토큰을 구매하고 소각하는 경우), 네트워크 수익은 사실상 공급을 재구매하고 파괴한다. 시간이 지나면서, 이는 토큰 가격을 지지하고 운영자 보상을 경제적으로 의미 있게 유지할 수 있다 - 사용량이 새로운 발행과 매도 압력에 비해 충분히 크게 성장한다고 가정할 때.
Helium은 이 설계를 실제로 보여준다. 네트워크 접근은 Data Credits로 지불되며, 이는 데이터 패킷당 고정된 달러 가격을 가진 양도 불가능한 단위다. 이 크레딧은 현재 오라클 가격으로 네이티브 HNT 토큰을 소각해야만 생성된다. 패킷이 흐르려면, 누군가가 궁극적으로 돈을 쓰고, HNT를 획득하고, 크레딧으로 소각해야 한다. 전송되는 모든 패킷은 소량의 HNT 공급이 퇴장하는 것에 해당한다.
이 구조는 HNT의 가치를 투기만이 아닌 실제 네트워크 사용에 연결한다. 그러나 그 연결의 강도는 규모에 따라 달라진다. 토큰 발행과 투기적 거래가 지배하는 한, 소각은 대부분 실제 수요를 기다리는 구조적 특징으로 남는다.
DePIN 네트워크는 사용 기반 소각이 발행을 의미 있게 상쇄하고 새로운 투기꾼의 끝없는 흐름에 의존하지 않고 운영자 보상을 자금 조달할 만큼 충분히 커질 때만 경제적으로 지속 가능해진다.
### 수익 모델 다양성
Helium을 넘어, 대부분의 DePIN 네트워크는 궁극적으로 발행을 가치의 주요 원천으로 대체해야 하는 다양한 수익 모델을 실험한다. 일부는 기가바이트당 저장 비용이나 컴퓨팅 시간당 비용을 통해 소비에 직접 요금을 부과한다. 다른 것들은 예측 가능한 반복 수입을 위한 구독 계획을 계층화하며, 특히 연결성과 SaaS 유사 제품에서 그렇다. 많은 것들이 네트워크 내 결제에 대한 거래 수수료를 포착하거나 기업, 연구 기관, 또는 애플리케이션 개발자에게 판매되는 집계된 익명화 데이터셋을 수익화한다.
### 토큰 공급 메커니즘
토큰 공급 메커니즘은 유사한 문제를 해결하더라도 네트워크마다 크게 다르다.
Filecoin을 예로 들어보자. 사용자가 독립 제공자에게 데이터를 저장하기 위해 비용을 지불하는 탈중앙화 저장 네트워크이다. Filecoin의 각 거래에는 소각되는 기본 수수료가 포함되어 해당 토큰을 유통에서 영구적으로 제거하며, 저장 제공자는 블록 보상과 사용자 지불 저장 거래를 통해 새로운 토큰을 얻는다. 이는 인플레이션 발행(제공자에게 보상)과 내장된 디플레이션(소각된 수수료를 통해)을 결합한다.
컴퓨팅 측면에서, Render Network는 GPU 제공자를 조정하여 렌더링과 AI 워크로드를 수행한다. 여기서 토큰 소각은 완료된 작업에 직접 연결된다: 사용자가 렌더링 비용을 지불할 때, 관련된 토큰의 일부가 파괴되므로 공급 감소가 전달된 컴퓨팅에 명시적으로 연결된다.
많은 다른 DePIN 설계는 세 번째 요소를 추가한다: 스테이킹(Staking). 운영자는 참여하기 위해 토큰을 담보로 잠가야 하며, 이러한 토큰을 효과적인 유통에서 제거한다. 서비스 보장을 충족하지 못하거나 부정직하게 행동하면, 그 지분의 일부가 슬래싱(제2장에서 다룬 지분 증명 시스템의 검증자 슬래싱과 유사)될 수 있다. 소각된 수수료, 작업 연결 소각, 스테이킹된 담보 사이에서, 각 네트워크는 인센티브를 정렬하고 장기적인 토큰 가치를 실제 사용에 고정하기 위해 인플레이션과 디플레이션의 다른 조합을 조립한다.
이 시스템들이 작동할 때, 강력한 네트워크 효과를 나타낸다. 초기 배치는 사용량이 적을 수 있지만, 커버리지 밀도가 증가하고 더 많은 애플리케이션이 네트워크를 통합함에 따라, 노드당 사용량과 수익이 비선형적으로 증가할 수 있다. 주기가 역으로 실행되면, 네트워크는 잠재적인 데스 스파이럴에 직면한다: 사용량이 정체되고, 토큰 소각이 감소하고, 가격이 하락하고, 하드웨어 운영자들은 보상이 더 이상 전기, 대역폭, 유지보수를 충당하지 못하면서 노드를 분리하기 시작한다.
Section III: The Trust Machine¶
위에서 설명한 경제적 인센티브는 강력하지만, 2차 문제를 만든다: 사기. 네트워크가 무선 커버리지를 제공하거나 파일을 저장하기 위해 익명의 행위자에게 지불한다면, 악의적 행위자들은 필연적으로 일을 하지 않고 보상을 청구하려 할 것이다.
따라서, DePIN의 기술 아키텍처는 주로 하나의 질문에 답하기 위해 존재한다: 실제로 서비스를 제공했는가? 이를 위해서는 물리적 자산을 배치하는 서비스 제공자 생태계와 작업을 확인하는 검증자 및 오라클이 필요하다.
### 역할과 책임
검증 프로세스는 구별되고 인센티브화된 역할에 의존한다. 기초에는 핫스팟, 저장 서버, 또는 센서와 같은 물리적 자산을 배치하고 유지하는 하드웨어 운영자인 서비스 제공자가 있다.
서비스 제공자는 일반적으로 최소 하드웨어, 연결성, 가동 시간 요구 사항을 충족해야 한다. 성능 모니터링은 처리량, 지연 시간, 신뢰성을 추적하며, 많은 네트워크는 지속적으로 신뢰할 수 있는 운영자에게 더 많은 트래픽과 수수료를 라우팅하는 온체인 또는 오프체인 평판 점수를 유지한다.
그들의 성능을 모니터링하는 것은 검증자와 오라클(Oracle)이다. 서비스 제공자와 달리, 검증자는 물리적 인프라가 아닌 계산 자원을 기여하여 서비스의 암호학적 증거를 확인한다. 많은 네트워크에서, 이러한 검증 의무는 더욱 전문화된다: 챌린지 생성기는 무작위화된 검증 작업을 생성하고, 증인 네트워크는 독립적으로 응답을 확인하여 공모에 대한 중복성을 추가한다.
오라클은 물리적 세계와 디지털 세계 사이의 다리 역할을 하며, 지역 날씨 조건이나 차량 위치와 같은 오프체인 데이터를 검증하고 보상 계산을 위해 온체인으로 중계한다. (오라클 네트워크와 그 보안 고려 사항은 제7장의 인프라 의존성 섹션에서 소개되었다.)
### 무선 네트워크를 위한 커버리지 증명
무선 네트워크에서, 검증은 **커버리지 증명(Proof-of-Coverage)**을 통해 달성된다. 핫스팟은 주기적으로 이웃에게 라디오 챌린지, 즉 전파를 통해 전송되는 암호화된 패킷을 발행한다. 근처의 핫스팟이 이 패킷을 목격하면, 네트워크에 신호 강도를 보고하여 물리적 라디오 전파에 고정된 커버리지의 암호학적 지도를 만든다.
핵심 조정 손잡이는 챌린지 빈도이다. 너무 자주 챌린지하면 검증이 데이터와 비용으로 네트워크를 범람시킨다. 너무 드물게 챌린지하면 공격자들이 잡히지 않고 커버리지를 스푸핑할 수 있는 넓은 창을 갖는다. 대부분의 설계는 타협이다: 치팅을 수익성 없게 만들기에 충분한 프로브, 하지만 검증이 서비스의 경제적 가치를 압도하지 않을 정도.
게이밍에 저항하는 방식으로 커버리지를 나타내기 위해, 세계는 종종 밀접하게 공동 위치한 핫스팟이 중복 서비스에 대해 과도한 보상을 청구하는 것을 방지하는 육각형 그리드로 나뉜다. 수백만 개의 라디오 핑을 검증하는 막대한 데이터 부하를 관리하기 위해, 많은 구현은 (이 장의 앞부분과 제7장에서 깊이 다룬) 전문화된 오라클 네트워크에 계산을 오프로드하며, 이 네트워크는 원시 목격 데이터를 집계하고 요약된 증명을 Solana와 같은 높은 처리량 블록체인에 게시한다.
### 저장 네트워크를 위한 시공간 증명
저장 네트워크는 다른 도전에 직면한다: 데이터가 단지 저장된 것이 아니라 시간이 지나도 지속되는 것을 증명하는 것이다. Filecoin은 중앙집중식 제공자의 법적 계약과 서비스 수준 계약을 이러한 질문을 직접 대상으로 하는 두 가지 암호학 시스템으로 대체한다: **복제 증명(Proof-of-Replication)**과 **시공간 증명(Proof-of-Spacetime)**.
복제 증명은 거래가 시작될 때 사용된다. 저장 제공자는 클라이언트의 데이터를 가져와 자신의 하드웨어에 고유하게 인코딩된 사본을 만들고, 이 특정 사본이 자신의 디스크에 존재한다는 증명을 생성한다. 이는 부정직한 운영자가 실제로 많은 다른 클라이언트에 대해 동일한 기본 데이터를 재사용하면서 큰 용량을 제공하는 척하는 것을 방지한다.
시공간 증명은 거래의 수명 동안 사용된다. 네트워크는 데이터가 여전히 거기에 있다고 확신해야 하지만, 모든 파일의 모든 바이트를 항상 확인하는 것은 너무 비용이 많이 든다. 대신, Filecoin은 확률적 샘플링을 사용한다. 정기적인 일정으로, 대략 하루에 한 번, 프로토콜은 제공자에게 저장된 데이터의 무작위로 선택된 조각을 여전히 보유하고 있음을 증명하도록 요청한다. 그들이 정확하고 제시간에 응답할 수 있다면, 네트워크는 전체 인코딩된 사본이 여전히 사용 가능하다는 강력한 증거로 취급한다.
Filecoin에서, 이러한 지속적인 검사는 **WindowPoSt(Window Proof-of-Spacetime)**라는 시스템에서 구현된다. 각 시간 창에는 제공자가 제출해야 하는 자체 챌린지와 증명 세트가 함께 제공된다. 이러한 증명을 놓치거나 무효한 것을 제출하면, 잠긴 담보의 일부가 슬래싱되고 미래 보상이 감소할 수 있다. 신뢰성은 법원이 아니라 증명이 실패할 때 발동하는 자동 경제적 페널티에 의해 시행된다.
### 위치 문제
확보하기 가장 어려운 기술적 벡터는 위치이다. 많은 네트워크가 지리적 확장에 인센티브를 주기 때문에, **GPS 스푸핑(GPS Spoofing)**에 취약하며, 여기서 운영자는 소프트웨어를 사용하여 좌표를 위조하고 서비스 부족 지역을 위해 의도된 보상을 수확한다. 이에 대한 방어는 끊임없는 무기 경쟁이다.
프로토콜은 피어 장치 간 신호 강도를 통해 위치를 검증하기 위해 삼각측량을 사용하며, 점점 더 칩 수준에서 GPS 데이터에 서명하는 보안 요소가 있는 **위치 증명(Proof-of-Location)** 하드웨어를 사용한다. Hivemapper와 같은 일부 네트워크는 비유기적 패턴을 플래그하거나 시각적 데이터를 사용하여 카메라가 실제로 물리적 세계를 통해 이동하고 있음을 확인하는 AI 기반 행동 분석 레이어를 추가한다.
많은 설계는 또한 조작이 감지되면 슬래싱될 수 있는 토큰을 운영자가 잠그도록 요구하는 지분 기반 억제에 의존하며, 참가자가 대상 감사를 위해 의심스러운 배치를 플래그할 수 있는 커뮤니티 보고 도구에도 의존한다. 함께, 이러한 메커니즘은 위치 스푸핑을 저위험 소프트웨어 트릭에서 고위험 경제적 도박으로 전환하려고 시도한다.
### 빌딩 블록
이러한 경제적 및 검증 원시 요소는 DePIN의 빌딩 블록이다. 다른 인프라 유형은 하드웨어 비용, 증명 복잡성, 규제 노출, 수요 패턴 사이에서 다른 비율로 이것들을 재결합한다.
이것이 실제로 어떻게 작동하는지 보려면, 세 가지 주요 도전 영역에서 DePIN 아키텍처가 어떻게 분기하는지 검토하는 것이 유용하다: 지리적 커버리지, 데이터 지속성, 그리고 계산 자원.
Section IV: Categories and Implementation¶
기본 메커니즘이 확립되었으므로, 이제 다른 DePIN 프로젝트가 특정 인프라 도전을 해결하기 위해 이러한 원칙을 어떻게 적용하는지 검토할 수 있다. 각 범주는 아키텍처를 형성하는 고유한 기술적 및 경제적 장애물에 직면한다.
### 지리적 커버리지 네트워크
지리적 커버리지 네트워크는 연결성이나 환경 데이터를 제공하기 위해 물리적 공간을 하드웨어로 채우는 것을 목표로 한다. 그들의 핵심 도전은 적절한 장소에 배치를 인센티브화하고 배치된 하드웨어가 진정으로 존재하고 활성 상태임을 증명하는 것이다.
#### 무선 연결성: Helium 모델
무선 연결성에서, Helium은 현장 배치 모델의 원형 역할을 한다. 개인이 IoT 장치를 위해 설계된 저전력 무선 핫스팟을 호스팅하도록 인센티브를 제공함으로써, 네트워크는 약 170개국에 걸쳐 900,000개 이상의 노드를 배치하여, 토큰 인센티브가 중앙집중식 통신사 대차대조표 없이 대규모 자본 지출을 자금 조달할 수 있다는 논제를 검증했다.
역사적으로, 운영자에 대한 보상은 커버리지 제공, 다른 핫스팟의 챌린지 목격, 실제 사용자 데이터 전송 사이에서 분할되었으며, 앞서 논의한 발행 및 소각 메커니즘을 물리적 네트워크 성장으로 직접 번역했다.
그러나, Helium은 또한 모델의 변동성을 보여주었다. 네트워크가 나중에 5G 셀룰러 커버리지와 Wi-Fi 오프로드로 전환함에 따라, 순수한 커버리지 구축 단계에서 사용 생성 단계로의 복잡한 전환을 관리해야 했으며, 신뢰성과 고객 경험에서 기존 통신사와 직접 경쟁하면서, 거버넌스는 보상을 커버리지에서 실제 트래픽으로 얼마나 빨리 전환할지 논의했다.
#### 매핑 네트워크: Hivemapper vs. Google
매핑 및 센서 네트워크는 다른 데이터 양식에서 유사한 커버리지 도전에 직면한다. Hivemapper는 운전자에게 대시캠을 장착하도록 지불하여 Google Street View에 도전하며, 결과적으로 매년이 아닌 매주 업데이트할 수 있는 지도를 만든다.
2026년 초까지, Hivemapper 기여자들은 5억 킬로미터 이상의 도로를 매핑했으며 전 세계 도로 네트워크의 약 3분의 1에 대한 커버리지를 보고했는데, 몇 년밖에 안 된 네트워크치고는 놀라운 속도이다. 대조적으로, Google은 10년 이상에 걸쳐 약 1,000만 마일의 Street View 이미지를 축적했으며, 많은 국가에서 거의 보편적인 커버리지를 가지고 있지만 새로고침 주기는 더 느리다.
Hivemapper의 비교 우위는 Google이 여전히 많은 지역에서 지배하는 절대적 커버리지가 아니라, 신선도와 한계 비용에 있다. 전통적인 매핑은 전용 자동차와 직원의 비싼 차량 대를 필요로 한다. DePIN은 데이터 수집을 기존 운전자의 배경 작업으로 전환하며, 그들의 보상은 커버리지의 위치와 참신성에 따라 달라진다.
이러한 보상이 위치에 민감하기 때문에, Hivemapper는 이미지가 조작되거나 재생된 영상이 아닌 실제 거리에 해당하는지 확인하기 위해 위치 증명 기술과 AI 기반 검증에 크게 의존한다.
#### 환경 센서 네트워크
환경 센서 네트워크는 동일한 패턴을 날씨와 대기질로 확장한다. WeatherXM은 수십 개국에 분산된 개인 기상 관측소를 운영하며, 근처 관측소와 위성 이미지에 대해 판독값을 교차 검증하고 데이터 품질과 일관성에 기반하여 운영자에게 토큰으로 보상한다.
가치 제안은 국가 기상청이나 상업 제공자가 재정적으로 정당화하기 어려울 초지역 커버리지이다. Planetwatch는 대기질에 유사한 플레이북을 적용한다: 종종 가정, 사무실, 또는 거리 설비에 설치된 보정된 센서가 규제 등급 측정값을 네트워크에 공급한다.
토큰 보상은 센서 등급과 지속적인 가동 시간에 연결되며, 결과 데이터셋은 공중 보건 연구, 기후 분석, 그리고 일부 경우 규제 모니터링에 사용된다. 여기서, 중앙집중식 시스템과의 트레이드오프는 순수하게 비용만이 아니다. 전통적인 네트워크는 더 통제되고 감사된 계측을 제공할 수 있지만, DePIN은 보정, 사기, 장기적인 운영자 인센티브 문제를 해결하면 훨씬 더 밀집된 커버리지를 생산할 수 있다.
### 데이터 지속성 네트워크
지리적 커버리지 네트워크가 하드웨어가 배치된 위치에 초점을 맞추는 반면, 데이터 지속성 네트워크는 데이터가 적절한 가격으로 적절한 시간 동안 사용 가능하게 유지되는지에 초점을 맞춘다. 그들의 주요 도전은 기업 계약과 서비스 보장을 암호학적 및 경제적 시행으로 대체하는 것이다.
#### Filecoin: 개방형 마켓플레이스
Filecoin은 저장을 위한 개방형 마켓플레이스로 운영된다. 채굴자들은 용량을 제공하기 위해 경쟁하고, 클라이언트는 가격, 기간, 중복성, 지리적 선호도를 지정하는 거래를 협상한다.
공개 분석에 따르면, 일부 기간에 광고된 Filecoin 저장 가격은 테라바이트당 연간 몇 달러 정도였으며, 표준 AWS S3 티어의 테라바이트당 연간 20~30달러와 비교하면, 프로모션 인센티브와 공격적인 경쟁이 작용할 때 규모 차이가 큰 것을 암시한다. 이 헤드라인 숫자는 신중하게 다뤄져야 한다: 유효 비용은 복제 계수, 검색 가격, 운영 복잡성에 따라 달라진다. 그럼에도, 경쟁 압력은 실제이다.
IPFS, 즉 행성 간 파일 시스템(제11장의 NFT 저장 논의에서도 언급됨)은 Filecoin과 함께 주소 지정 및 배포 레이어로 자리하며, 파일을 위치가 아닌 암호학적 해시로 식별한다. Filecoin은 중요한 콘텐츠가 시간이 지나도 지속되도록 보장하는 인센티브 레이어를 추가하며, 전통적인 법적 계약 없이 거래를 시행하기 위해 복제 증명, WindowPoSt, 슬래싱을 사용한다.
#### Arweave: 기부금 모델
Arweave(제11장의 NFT 저장 논의에서도 언급됨)는 근본적으로 다른 접근 방식을 취하여, **기부금 모델(Endowment Model)**을 통해 영구 저장을 제공한다. 사용자는 사실상 저장 기부금에 투자되는 일회성 선불 수수료를 지불하고, 채굴자들은 역사적 데이터를 저장한 대가로 이 풀에서 보상을 받아, 네트워크의 영구 데이터 아카이브가 반복적인 월별 지불 없이 무기한 접근 가능하게 유지되도록 보장한다.
실제로, 이 모델은 장기 저장에 대해 종종 기가바이트당 한 자릿수 달러 범위의 사용자 대면 가격을 생산했으며, 이는 매우 큰 데이터셋에는 비쌀 수 있지만 문화 유물, 법적 기록, 또는 대체 불가능한 애플리케이션 상태와 같은 고가치 아카이브 콘텐츠에는 매력적이다.
여기서 AWS와의 트레이드오프는 가격뿐만 아니라 시간 범위와 통제이다. 기업 제공자는 가격을 변경하거나 서비스 라인을 중단할 수 있다. Arweave의 약속은, 네트워크와 토큰 경제가 생존하는 한, 추가 협상 없이 데이터가 접근 가능하게 유지된다는 것이다.
#### 저장 스택
종합하면, IPFS, Filecoin, Arweave는 DePIN 저장 스택의 세 레이어를 보여준다. IPFS는 데이터가 주소 지정되고 이동되는 방식을 처리하고, Filecoin은 정의된 조건에 대해 경제적으로 시행되는 지속성을 위한 시장을 제공하며, Arweave는 매우 긴 시간 동안 또는 사실상 영원히 보존되어야 하는 데이터를 위한 옵션을 제공한다.
각각은 비용, 복잡성, 보장 사이에서 다른 트레이드오프를 만든다.
### 계산 자원 네트워크
DePIN 인프라의 마지막 범주는 물리적 커버리지나 저장 용량이 아닌 유휴 또는 저활용 처리 능력을 수익화한다. 그들의 도전은 이질적인 기계의 분산된 풍경을 사용자 관점에서 일관된 클라우드처럼 느껴지는 것으로 변환하는 것이다.
#### Render Network: 유휴 GPU 활용
2023년의 GPU 부족은 중앙집중식 클라우드의 비효율성을 부각시켰으며, 프리미엄 칩은 부족하고 비싸지만 소비자급 GPU는 전 세계 게이밍 PC에서 유휴 상태로 있었다. Render Network는 이 매몰 비용을 활용한다.
렌더링과 AI 작업을 위해 유휴 GPU를 집계하여, 호환되는 하드웨어와 수용 가능한 가격을 광고하는 노드에 작업을 발송한다. **렌더 증명(Proof-of-Render)** 메커니즘은 작업을 여러 노드에 분할하고 중복 또는 암호학적 검사를 통해 출력을 검증한다: 예를 들어, 작업의 작은 부분을 다시 렌더링하거나 결정론적 출력의 해시를 비교한다.
유효하지 않거나 저품질 결과를 반환하는 노드는 평판에 따라 페널티를 받거나 향후 작업에서 제외될 수 있다.
#### Akash: 일반 클라우드 컴퓨팅
Akash는 이 모델을 일반 클라우드 컴퓨팅으로 확장한다. 사용자가 Amazon이나 Google이 설정한 고정 가격 메뉴를 수락하도록 강요하는 대신, 테넌트가 요구 사항(CPU, 메모리, 저장, 기간)을 지정하면 제공자가 이를 충족하기 위해 입찰하는 역경매 마켓플레이스를 만든다.
많은 제공자가 게이밍, 채굴, 또는 기존 데이터 센터 워크로드를 위해 이미 하드웨어 비용을 지불했기 때문에, 특히 비중요하거나 버스트 워크로드에 대해 중앙집중식 클라우드 마진에 비해 가파른 할인으로 컴퓨팅을 제공할 수 있다.
다른 DePIN 네트워크와 마찬가지로, 이론적 장점은 가격과 유연성이다. 실질적 제약은 신뢰성, 오케스트레이션 복잡성, 그리고 규정 준수이다.
Section V: The Reality Check¶
이론적 모델과 실제 구현을 탐구했으므로, 이제 DePIN의 약속과 현재 현실 사이의 격차에 직면해야 한다. 빠른 배치 지표와 설득력 있는 가격 비교에도 불구하고, DePIN은 아직 전통적인 인프라를 대체하지 못했다. 대량 채택의 장벽은 상당하며, 신뢰성, 보안, 규제, 거버넌스, 사용자 경험의 지저분한 현실에 존재한다.
### 신뢰성 도전
신뢰성은 가장 눈에 띄는 장애물이지만, "파이브 나인(Five Nines)"이라는 문구가 암시하는 것만큼 이분법적이지 않다. 기업 인프라는 미션 크리티컬 워크로드에 대해 99.999% 가동 시간을 요구하며, 중앙집중식 제공자는 과잉 프로비저닝된 용량, 전문 운영 팀, 계약적 서비스 수준 계약을 통해 이를 달성한다.
대조적으로, DePIN 네트워크는 이질적인 하드웨어와 다양한 수준의 헌신을 가진 수천 명의 아마추어 운영자의 집합체이다. 노드 운영자가 휴가를 가고 인터넷이 끊기면, 서비스가 저하된다.
프로토콜은 중복성, 평판 시스템, 슬래싱을 통해 이를 완화하려고 시도하며, 많은 사용 사례(개인 파일 백업, 비중요 IoT 데이터 수집, 지연 허용 애플리케이션을 위한 엣지 캐싱)에서 비용의 일부로 99.9% 가동 시간은 완전히 수용 가능할 수 있다.
도전은 가장 높은 가치의 워크로드, 따라서 가장 큰 수익 풀이 가장 높은 신뢰성을 요구하는 경향이 있다는 것이다. DePIN이 직접 그 표준을 충족하거나 신뢰할 수 있는 서비스 제공자가 도매 레이어로 그 위에 구축할 수 있게 하기 전까지, 잠재적 시장의 하위 집합에 국한될 것이다.
### 보안 취약점
보안은 신뢰성과 함께 어려운 제약으로 자리한다. DePIN 네트워크는 암호화폐 시스템의 모든 일반적인 실패 모드를 상속한다: 스마트 컨트랙트 익스플로잇, 잘못 구성된 오라클, 기본 합의 레이어에 대한 공격. 그러나 새로운 하드웨어 공격 표면을 추가한다.
인기 있는 핫스팟 모델이나 센서 펌웨어의 취약점은 수만 개의 노드에서 한꺼번에 악용되어, 누가 지불받을지 결정하기 위해 네트워크가 의존하는 증명의 무결성을 훼손할 수 있다. 프로토콜은 소프트웨어 패치, 더 공격적인 챌린지 체계, 슬래싱으로 대응할 수 있지만, 표준화된 하드웨어와 익명 운영자의 조합은 시스템적 실패를 가능하게 하고, 일부 경우 빠르게 해결하기 어렵게 만든다.
### 규제 복잡성
규제는 그림을 더욱 복잡하게 한다. 이러한 네트워크는 블록체인 불변성에 무관심한 법적 프레임워크를 가진 물리적 관할권에서 운영된다. 통신 네트워크는 스펙트럼 라이선싱을 탐색하고 국가 통신 규정을 준수해야 한다. 저장 및 매핑 네트워크는 EU의 GDPR과 같은 데이터 주권법과 공공 감시에 관한 프라이버시 우려에 직면한다. 환경 센서 네트워크는 측정 정확도와 보고에 대한 표준에 맞춰야 한다.
무허가 스펙트럼 사용 금지, 특정 데이터 유형의 수출 제한, 또는 토큰을 미등록 증권으로 분류하는 것과 같은 적대적 규제 조치는 네트워크의 유용성을 심각하게 약화시킬 수 있다. 순수하게 디지털인 DeFi 프로토콜과 달리, DePIN 프로젝트는 단순히 "사이버공간으로 탈출"할 수 없다. 그들의 하드웨어와 많은 운영자는 특정 국가에 뿌리박고 있다.
### 시장 순환성
이 모든 것은 변동성 있는 암호화폐 시장 위에 놓여 있다. 토큰 가격이 폭락하면, 사용량이 안정적이더라도 보상이 갑자기 운영자의 실제 비용 아래로 떨어질 수 있다. 이 순환성은 DePIN을 더 넓은 암호화폐 시장 변동에 비정상적으로 민감하게 만든다. 약세장은 기본 인프라 논제가 실제로 반증되기 훨씬 전에 대량 언플러깅을 촉발할 수 있다.
실제로, 많은 네트워크는 수명 초기에 극단적인 토큰 가치 상승의 짧은 기간을 경험한다. 이 창 동안, 헤드라인 수익률은 법정화폐 기준으로 터무니없이 매력적으로 보이며, 유기적 수요가 정당화하는 것보다 훨씬 빠르게 운영자와 자본을 끌어들인다. 하드웨어 함대는 실제 사용이 아닌 가격 신호를 위해 구축된다. 기대치는 그 부풀려진 보상에 고정된다.
불가피한 조정이 오면, 종종 고점에서 90~99%의 하락과 함께, 경제학은 하룻밤 사이에 뒤집힌다. 엄청나게 수익성 있어 보였던 동일한 함대가 이제 전기, 대역폭, 유지보수를 충당하기 위해 고군분투한다. 결과는 반사적 해제이다: 언플러깅은 서비스 품질을 저하시키고, 이는 수요를 더욱 억제하고 하락 추세를 강화한다.
핵심 장기 지표는 사용 기반 소각이 궁극적으로 발행을 능가하여 투기와 무관하게 지속 가능한 수요를 만들 수 있는지이다. 대부분의 네트워크는 이 임계값을 결코 넘지 못한다.
### 거버넌스와 사용성 역설
궁극적으로, 모델은 거버넌스와 사용성 역설에 직면한다. 토큰 가중 거버넌스는 느리고, 논쟁적이며, 대형 보유자에 의해 포획될 수 있어, 하드웨어 집약적 산업에서 종종 필요한 빠른 피벗을 실행하기 어렵게 만든다.
운영자, 투기꾼, 최종 사용자는 종종 상충하는 우선순위를 가지며, 신중한 설계 없이 의사 결정 프로세스는 장기적인 네트워크 건강을 희생하여 단기적 이익을 증폭시킬 수 있다. 동시에, **수요 측(Demand Side)**(데이터, 저장, 또는 연결성의 실제 소비자)에 대한 사용자 경험은 종종 마찰이 많은 지갑, 브릿지, 가스 수수료를 포함한다.
많은 잠재적 고객에게, 이론적 경제적 이점은 운영 복잡성과 인지된 위험에 의해 상쇄된다.
### 앞으로의 길
그러나 DePIN을 단순히 개념 증명으로 치부하기에는 시기상조이다. 이 장의 네트워크들은 이미 느슨하게 조정된 커뮤니티가 규모에서 실제 인프라를 구축하고 운영할 수 있음을 보여준다: 글로벌 IoT 커버리지, 페타바이트 수준 저장 시장, GPU 렌더 팜, 실시간 환경 센서 그리드.
문제는 더 이상 모델이 작동하는지가 아니라, 어디에서 확장할 수 있는지이다. 틈새 실험에서 주류 유틸리티로 이동하려면 몇 가지 핵심 요소가 필요할 것이다. 네트워크는 이질적인 노드를 기업 등급 제품으로 묶는 표준화된 서비스 레이어가 필요하다. 거버넌스 프레임워크는 포획되지 않고 빠르게 움직여야 한다. 규제 체제는 탈중앙화 운영자를 분류하고 감독하는 방법을 배워야 한다. 사용자 인터페이스는 DePIN 서비스를 소비하는 것이 오늘날의 클라우드를 사용하는 것만큼 간단하게 느껴지도록 해야 한다.
이러한 요소들이 제자리에 들어오면, DePIN은 기존 업체를 완전히 대체하지는 못하더라도 그들을 재형성할 수 있다. 전통적인 플랫폼은 글로벌하고 커뮤니티 소유의 물리적 인프라 기반 위에 구축된 서비스를 패키지하고, 규제하고, 재판매하는 브랜드로 진화할 수 있다.