일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- NERF
- Paper
- ICCV
- ICCV 2021
- CVPR2023
- 경희대
- 논문
- 융합연구
- 리눅스
- paper review
- CVPR
- panoptic segmentation
- Python
- Deep Learning
- linux
- GAN
- Computer Vision
- docker
- NeRF paper
- IROS
- 논문 리뷰
- Vae
- 파이토치
- 딥러닝
- Semantic Segmentation
- 2022
- panoptic nerf
- 논문리뷰
- pytorch
- Neural Radiance Field
- Today
- Total
목록Background (40)
윤제로의 제로베이스
mmseg를 사용한 논문 github을 보게 되었는데 실질적으로 코드는 별로 안 짜시는 것 같고 거의 config file가지고 하시는 거 같아서 신기해서 한 번 해보고 싶다는 생각에 시도해보는 중,, 설치 conda create --name openmmlab python=3.8 -y conda activate openmmlab conda install pytorch torchvision -c pytorch pip install -U openmim mim install mmengine mim install "mmcv>=2.0.0" git clone -b main https://github.com/open-mmlab/mmsegmentation.git #main branch를 HEAD로 clone cd mm..
도커 실습 시작! 도커 설치하기 curl -fsSL https://get.docker.com/ | sudo sh sudo 없이 docker 사용하기 docker는 기본적으로 root권한을 필요로 하기 때문에 root가 아닌 사용자가 sudo 없이 사용하려면 사용자를 docker 그룹에 추가해야 한다. sudo usermod -aG docker $USER # 현재 접속중인 사용자에게 권한주기 sudo usermod -aG docker your-user # your-user 사용자에게 권한주기 컨테이너 실행하기 도커 실행 명령어 docker run [OPTIONS] IMAGE[:TAG|@DIGEST] [COMMAND] [ARG...] 주로 사용하는 옵션들 -d : detached mode. 백그라운드 모드 ..

Docker를 쓰고 싶은데 일단은 그러기에 앞서 도커가 뭔지를 알아야할 것 같다 가볍게 개념을 훑어보도록 하겠다. 도커(Docker) 도커는 컨테이너 기반의 오픈소스 가상화 플랫폼이다. 약간 우리가 아는 그 컨테이너 처럼 다양한 프로그램, 실행 환경을 추상화하고 동일한 인터페이스를 제공하여 프로그램의 배포 관리를 단순하게 해준다. 아직 사실 와닿지 않는다. 컨테이너(Container) 컨테이너는 격리된 공간에서 프로세스가 동작하는 기술이다. 기존의 가상화 방식은 VMWare나 VitualBox와 같이 OS위에 OS자체를 가상화하여 사용했다. 하지만 무겁고 느려서 사용하기가 버거웠다. 그래서 프로세스를 격리하는 방식이 등장한다. 리눅스에서 이 방식을 리눅스 컨테이너 라고 하고 단순히 프로세스를 격리시키기 ..
https://wikidocs.net/66115 01. 파이토치를 이용한 텍스트 분류(Text classification using PyTorch) 이번 챕터에서는 파이토치(PyTorch)로 인공 신경망을 이용한 텍스트 분류를 실습합니다. 실습에 앞서 딥 러닝을 이용해서 텍스트 분류가 수행될 때, 어떤 작업과 구성으로 ... wikidocs.net 1. 훈련 데이터에 대한 이해 지도 학습의 훈련 데이터는 레이블이라는 이름의 정답이 미리 적혀있는 데이터로 구성되어 있다. 쉽게 비유하자면, 기계는 정답이 적혀져 있는 문제지를 열심히 공부하고, 향후에 정답이 없는 문제에 대해서도 정답을 예측해서 대답하게 되는 메커니즘이다. 2. 훈련 데이터와 테스트 데이터 3. 단어에 대한 인덱스 부여 파이토치의 nn.Emb..
https://wikidocs.net/64765 03. 단어 단위 RNN - 임베딩 사용 이번 챕터에서는 문자 단위가 아니라 RNN의 입력 단위를 단어 단위로 사용합니다. 그리고 단어 단위를 사용함에 따라서 Pytorch에서 제공하는 임베딩 층(embedding ... wikidocs.net 1. 훈련 데이터 전처리하기 import torch import torch.nn as nn import torch.optim as optim sentence = "Repeat is the best medicine for memory".split() vocab = list(set(sentence)) word2index = {tkn: i for i, tkn in enumerate(vocab, 1)} # 단어에 고유한 정..
https://wikidocs.net/64703 01. 문자 단위 RNN(Char RNN) 이번 챕터에서는 모든 시점의 입력에 대해서 모든 시점에 대해서 출력을 하는 다대다 RNN을 구현해봅시다. 다대다 RNN은 대표적으로 품사 태깅, 개체명 인식 등에서 사용됩니 ... wikidocs.net 1. 문자 단위 RNN(Char RNN) RNN의 입출력의 단위가 단어 레벨(word-level)이 아니라 문자 레벨(character-level)로 하여 RNN을 구현한다면, 이를 문자단위 RNN이라고 한다. RNN의 구조가 달라진 것이 아니라 입,출력의 단위가 문자로 바뀐 것이다. import torch import torch.nn as nn import torch.optim as optim import num..

https://wikidocs.net/60762 02. 장단기 메모리(Long Short-Term Memory, LSTM) 바닐라 아이스크림이 가장 기본적인 맛을 가진 아이스크림인 것처럼, 앞서 배운 RNN을 가장 단순한 형태의 RNN이라고 하여 바닐라 RNN(Vanilla RNN)이라고 합니다 ... wikidocs.net 앞서 배운 RNN의 형태를 가장 단순한 형태의 RNN이라고 하며 바닐라 RNN이라고 한다. 1. 바닐라 RNN의 한계 바닐라 RNN은 출력 결과가 이전의 계산 결과에 의존한다. 하지만 바닐라 RNN은 비교적 짧은 시퀀스에 대해서만 효과를 보이는 단점이 있다. 바닐라 RNN의 시점이 길어질수록 앞의 정보가 뒤로 충분히 전달되지 못하는 현상이 발생한다. 즉 뒤로 갈수록 처음의 정보가 손..

https://wikidocs.net/60690 01. 순환 신경망(Recurrent Neural Network, RNN) RNN(Recurrent Neural Network)은 시퀀스(Sequence) 모델입니다. 입력과 출력을 시퀀스 단위로 처리하는 모델입니다. 번역기를 생각해보면 입력은 번 ... wikidocs.net RNN은 시퀀스 모델이다. 입력과 출력을 시퀀스단위로 처리하는 모델이다. 1. 순환 신경망(Recurrent Neural Network, RNN) RNN은 은닉층의 노드에서 활성화 함수를 통해 나온 결과값을 출력층 방향으로도 보내면서, 다시 은닉층 노드의 다음 계산의 입력으로 보내는 특징을 갖고 있다. RNN의 은닉층에서 활성화 함수를 통해 결과를 내보내는 역할을 하는 노드를 셀(c..

https://wikidocs.net/64779 07. 파이토치(PyTorch)의 nn.Embedding() 파이토치에서는 임베딩 벡터를 사용하는 방법이 크게 두 가지가 있습니다. 바로 임베딩 층(embedding layer)을 만들어 훈련 데이터로부터 처음부터 임베딩 벡터를 학습 ... wikidocs.net 1. 임베딩 층은 룩업 테이블이다. 임베딩 층의 입력으로 사용하기 위해서 입력 시퀀스의 각 단어들은 모두 저웃 인코딩이 되어야 한다. 어떤 단어 -> 다멍에 부여된 고유한 정수값 -> 임베딩층 통과 -> 밀집 벡터 임베딩 층은 입력 정수에 대한 밀집 벡터로 맵핑하고 이 밀집 벡터는 인공 신경망의 학습 과정에서 가중치가 학습되는 것과 같은 방식으로 훈련된다. 훈련 과정에서 단어는 모델을 풀고자 하는..

https://wikidocs.net/60858 06. 글로브(GloVe) 글로브(Global Vectors for Word Representation, GloVe)는 카운트 기반과 예측 기반을 모두 사용하는 방법론으로 2014년에 미국 스탠포드대 ... wikidocs.net 글로브(Global Vectors for Word Representations, GloVe)는 카운트 기반과 예측 기반을 모두 사용하는 방법론으로 2014년 미국 스탠포드대학에서 개발한 단어 임베딩 방법론이다. 기존의 카운트 기반의 LSA(Latent Semantic Analysis)와 예측 기반의 Word2Vec의 단점을 지적하며 이를 보완한다느 목적으로 나왔으며, 실제로도 Word2Vec만큼 뛰어난 성능을 보인다. 1. 기존 ..