- Today
- Total
목록Unity (90)
프로그래밍 농장
- Monobehavior : 유니티에서 가장 기본이 되는 클래스이며, Gameobject 를 사용하기 위해서는 꼭 클래스에 상속시켜주어야한다. -> Monobehavior가 없다면, 유니티상의 Gameobject에 컴포넌트와 같은 것을 붙히지 못한다. 유니티에서도 안드로이드와 같이 생명주기가 존재한다. 생명주기(LifeCycle)이란, 유니티 내부에서 알아서 프로젝트 시작부터 종료까지 진행하는 흐름이다. 즉, 사용자가 직접 만들지 않아도 프로젝트가 실행되면 자동으로 호출되는 메소드를 뜻한다. 이와 같은 메소드는 호출 순서에 따라 크게 아래와 같이 4가지가 존재한다. Awake() -> Start() -> Update() -> onDestroy() 유니티는 크게 위의 4가지로 구분되어 동작하며, 세부적으..
- Scene창에서의 게임 오브젝트 조작 방법 게임 오브젝트는 다양한 방법들로 조작할 수 있습니다. 아래의 여러 가지 종류의 조작모드를 지원합니다. -> Q,W,E,R,T,Y로 모드 전환 -> Scroll ->우측 마우스 누른 후 드래그 ->좌측 마우스 누른 후 드래그 -> 게임 오브젝트 누르고 F -> Shift + Arrow -> Ctrl + Arrow 등의 여러 방법으로 조작이 가능하다. - 각 창에 대한 간단한 설명 - Inspect : 게임 오브젝트들의 모든 기능들을 전체적으로 확인할수있는 창이다. - Project : 유니티 전용 파일 탐색기이다. 여기서 우리가 쓸 Asset(게임을 위해 쓸 파일) 들을 볼 수 있다. 그리고 유니티 Project창에서는 파일들의 확장자가 보이지 않습니다. 예를..
> 문제 생성 직후부터 서서히 나타났다가 서서히 없어지는 오브젝트를 만들고자 할떄 어떻게 구현할것인가? > 해결방법 Update 함수를 사용하여 매 프레임에 걸쳐 적의 SpriteRenderer를 통해서 알파값을 조정해주는 방식으로 구현할수있다. -> 위의 방법을 사용할 경우 매프레임마다 구현된 함수를 호출해야하므로 시스템 과부하를 초래할 수 있다. 위의 방법은 여러가지 함수를 통하여 오브젝트의 생성에 대한 주기도 설정해주어야하는등, 여러가지 복잡한 구조의 코딩이 요구될것이다. 이때 사용가능한 것이 바로 코루틴(coroutine)이다. - 코루틴 (coroutine) 유니티 메뉴얼상의 코루틴은 "실행을 중지하여 Unity에게 제어권을 돌려주고, 계속할 떄에는 다음 프레임에서 중지한 곳부터 실행을 계속할 ..
유니티 환경에서 Metamask / Trustwallet 등 지갑을 연동해주는 작업을 수행해보겠습니다. 이 작업과정에서 Ethereum mainnet / Testnet / Bsc (Binace smart chain) / 등 코드상 등록된 여러 네트워크들을 사용할수도 있습니다. 먼저, 메타마스크 지갑을 플러그인 형식으로 다운로드후 가입을 해놓습니다. https://metamask.io/ A crypto wallet & gateway to blockchain apps | MetaMask A crypto wallet & gateway to blockchain apps metamask.io 이후 아래의 sdk 프로젝트에서 web3 - 유니티상에서 연동될수있도록 web3.unityPackage 를 다운받아 유니티..
공식 Unity의 설명에 기반하였을떄, 각 Parameter의 역할은 아래와 같다. Hyperparameters 1. trainer_type : 학습에 사용할 강화학습 기법 (기본값 : ppo) / ppo, sac, poca 설정가능 2. batch_size : 네트워크를 한번 학습할 떄 몇 개의 데이터를 이용할 것인가? / 일반적으로 continuous action 알고리즘은 값을 크게 설정(128~2048) / Discrete action 알고리즘은 값을 작게 설정(32~512) 3. buffer_size : 네트워크를 학습하기 위해 저장하는 전체 데이터의 수 (2048~409600) buffer_size가 클수록 안정적인 학습 수행 가능 4. learning_rate : 기본값 = 3e-4 ( 학습..
Unity ML-Agents 2.0에서 제공하는 알고리즘에 대한 정리 - Reinforcement Learning ( 강화학습 ) 1. Proximal Policy Optimization (PPO) : 일반적으로 많이쓰이면 좋은학습성능을 보임 2. Soft Actor Critic (SAC) : 일반적으로 많이쓰이면 좋은학습성능을 보임 3. Curiosity based Exploration (ICM,RND) : 호기심 기반 탐험 알고리즘 / 탐험성능향상 (보상을 얻기까지 복잡한 탐험수행을 위한 어려운 문제들을 위한 특수한 알고리즘 ) 4. Multi-Agent POsthumous Credit Assignment(MA-POCA) : 하나의 환경에서 다수의 에이전트들이 학습할떄 사용 / 일부를 희생하더라도 공..