- Today
- Total
목록분류 전체보기 (360)
프로그래밍 농장
TODO : javascript 외 Unity 등 여러 플랫폼에서 web3 환경 구축 및 개발 - WebXR-ETH - NEthereum 및 Metamask와 Unity WebXR 통합 ( chainsafe sdk - Unity build ) https://www.wenyanet.com/opensource/ko/6112e36bef869822ec635fa0.html NEthereum 및 Metamask와 Unity WebXR 통합 - wenyanet 읽어보기 이 프로젝트는 README의 나머지 부분에서 강조 표시된 대로 Unity Nethereum 샘플을 기반으로 합니다. 마스터 브랜치에는 WebXR 메타마스크 Unity 프로젝트의 작업 구현이 있습니다. Metamask Only www.wenyanet.c..
1차적인 프로젝트 구상안 ( P2D : Play to Donate ) : 기존 게임플레이를 통해 얻은 토큰을 실제 코인(재화)로서의 수익전환이 되는 P2E 모델에서 토크노믹스(생태계) 부분과 노동성을 띄는 접근으로 인한 시스템의 한계성(짧은수명)을 개선하기 위해 구상한 모델 기존 P2E와의 차이점 1. 현금화를 위한 플레이가 아닌 '기부'를 목적으로 하기에 토큰가격의 변동성 및 여러 토크노믹스 문제에 따른 피로도 해소 2. '기부'의 방식은 기부처에 대한 단방향으로만 진행되며 기부처는 기부받은 토큰을 거래소 또는 스왑을 통하여 현금화할수있다. 3. 2번의 과정에서 토큰의 가치는 토큰을 구매함으로서 기부하고자 하는 기부자에 의해 매겨지게된다. ( 2차 판매불가 / 구매한 토큰을 기부증서 NFT 로 변환하여..
마이크로소프트에서 개발한 Windows 프로그램 개발 및 실행 환경(프레임워크). 원래는 클로즈드 소스로 개발되던 프레임워크 였으나 현재는 닷넷 재단이 관리하는 오픈소스 프로젝트이며 이와는 별도로 오픈소스화 이전부터 오픈소스 프로젝트 MONO또한 있다. .NET 프레임워크를 사용하는 언어들로 작성된 소스 코드는 각 언어에 맞는 컴파일러[5]를 거쳐 .NET CLR용 중간 코드인 CIL(Common Intermediate Language)로 컴파일된 후 .exe 파일로 래핑(wrapping)된다.[6] 그리고 .NET CLR은 이 파일을 JIT 컴파일 방식으로 읽어들여 기계어 번역을 수행한다. CIL은 .NET CLR이 설치된 곳이라면 어디서든 컴파일이 가능하다. 예로 들어서 Hello World를 출력하..
디앱(DApp) 또는 댑이란 Decentralized Application의 약자로서, 이더리움, 큐텀, 이오스 같은 플랫폼 코인 위에서 작동하는 탈중앙화 분산 애플리케이션을 말한다. 간략히 분산앱이라고도 한다. 플랫폼 위에서 작동하는 디앱의 암호화폐는 코인(coin)이라고 하지 않고 토큰(token)이라고 구별하여 부르기도 한다. 'Daap'가 아니라 'DApp'가 올바른 표기법이다. 'Dapp' 또는 'dApp'이라고도 쓴다. 단수형이 아니라 복수형으로 표현하여, 디앱스(DApps) 또는 댑스(dApps)라고도 한다. 2019년 1월 플루언스 네트워크(Fluence.network)의 공동 창업자인 이브게니 포노마레프(Evgeny Ponomarev)가 조사한 결과에 따르면, 전 세계 디앱의 약 80% ..
공식 Unity의 설명에 기반하였을떄, 각 Parameter의 역할은 아래와 같다. Hyperparameters 1. trainer_type : 학습에 사용할 강화학습 기법 (기본값 : ppo) / ppo, sac, poca 설정가능 2. batch_size : 네트워크를 한번 학습할 떄 몇 개의 데이터를 이용할 것인가? / 일반적으로 continuous action 알고리즘은 값을 크게 설정(128~2048) / Discrete action 알고리즘은 값을 작게 설정(32~512) 3. buffer_size : 네트워크를 학습하기 위해 저장하는 전체 데이터의 수 (2048~409600) buffer_size가 클수록 안정적인 학습 수행 가능 4. learning_rate : 기본값 = 3e-4 ( 학습..
Unity ML-Agents 2.0에서 제공하는 알고리즘에 대한 정리 - Reinforcement Learning ( 강화학습 ) 1. Proximal Policy Optimization (PPO) : 일반적으로 많이쓰이면 좋은학습성능을 보임 2. Soft Actor Critic (SAC) : 일반적으로 많이쓰이면 좋은학습성능을 보임 3. Curiosity based Exploration (ICM,RND) : 호기심 기반 탐험 알고리즘 / 탐험성능향상 (보상을 얻기까지 복잡한 탐험수행을 위한 어려운 문제들을 위한 특수한 알고리즘 ) 4. Multi-Agent POsthumous Credit Assignment(MA-POCA) : 하나의 환경에서 다수의 에이전트들이 학습할떄 사용 / 일부를 희생하더라도 공..