본문 바로가기

Data Analysis8

다양한 옵션을 갖는 Normalization Layer 설정 옵션 만들어보기 커스터마이징 백본을 만들다 보면 계층별로 서로 다른 normalization layer를 설정해줘야 할 때가 있는데 일일이 입력해줘도 전혀 문제 없지만 조금더 파이써닉한 레이어 설계 툴을 만들어두면 편합니당ㅎㅎ Declare class Identity(nn.Module): def forward(self, x): return x def get_norm_layer(norm_type='instance'): if norm_type == 'batch': norm_layer = functools.partial(nn.BatchNorm2d, affine=True, track_running_stats=True) elif norm_type == 'instance': norm_layer = functools.partial(.. 2022. 9. 14.
SRGAN의 VGGPerceptualLoss 써보기 Reference Address : https://openaccess.thecvf.com/content_cvpr_2017/papers/Ledig_Photo-Realistic_Single_Image_CVPR_2017_paper.pdf VGGPerceptualLoss는 Feature Map 간의 거리를 Pretrained된 VGG 네트워크를 이용해 계산해주기 때문에 생성해내는 이미지의 Detail이 잘 표현된다고 알려져 있어요 제 모델에 적용해 보려고 공부한 김에 포스팅하는데 오류가 있으면 지적 부탁드릴게요 :) 참조한 깃허브는 다음과 같아요 https://gist.github.com/alper111/8233cdb0414b4cb5853f2f730ab95a49 PyTorch implementation of V.. 2022. 9. 11.
다크모드 쓰는 사람들을 위한 폰트 컬러 color_0, color_1, color_2, color_3 = 'mistyrose', 'aqua', 'tab:orange', 'limegreen' 2022. 8. 20.
쉽게 쓰는 Torch FID Score 모듈 Reference Address : https://github.com/vict0rsch/pytorch-fid-wrapper GitHub - vict0rsch/pytorch-fid-wrapper: A simple wrapper around @mseitzer's great pytorch-fid work to compute Fréchet Inception A simple wrapper around @mseitzer's great pytorch-fid work to compute Fréchet Inception Distance in-memory from batches of images, using PyTorch - GitHub - vict0rsch/pytorch-fid-wrapper: A simp... gith.. 2022. 8. 20.
Crawling in NAVER Financial Summary, Make PEG/EPS Growth Rate/OPM Growth Rate etc: 네이버 파이낸셜서머리 크롤링해서 PEG, EPS성장율, 영업이익증가율 등 만들고 차트 그리기 이전에는 개별종목 스크리닝을 손으로 긁어와서 엑셀로 작업했었는데, 자동화 툴을 벼르고 벼르다가 이제야 만들었어요. 중점을 둔 부분은, EPS성장율, 영업이익증가율 등 성장중에 중요한데 서머리에서 제공안하는 지표를 추가한 점, 이를 바탕으로 PEG를 만들어보고 추가한 점입니다. 그외에 매출액, 영업이익, PER등 기본적인 상대비교 지표 등도 추출하니까 참고하시기 좋을 거에요. 바로 갈게요 라이브러리 임포트 합니다. import matplotlib.pyplot as plt import matplotlib.font_manager as fm import os, copy, sys, platform import matplotlib as mpl from matplotlib import rc path = 'C:\\Wi.. 2022. 4. 22.
sklearn Scaler [Ensemble] 만약 어떤 특이한 동전이 있는데 이 동전이 앞면이 나올 확률이 51%, 뒷면이 나올 확률이 49%인 동전이라고 해봐요. 이 동전을 10번 던졌을 때보다 100번 던졌을 때, 100번 던졌을 때보다 10,000번 던졌을 때, 10,000번 던졌을 때보다 1,000,000번 던졌을 때, 1,000,000번 던졌을 때보다 1,000,000,000번 던졌을 때 앞면이 나온 백분율이 51%에더 더 가까워질 거에요. 이를 큰 수의 법칙이라고 하는데 머신러닝에서 앙상블은 이 큰 수의 법칙을 이용해서 약한 성능을 가진 여러 모델을 모아 위원회를 만들고 이 위원회에서 더 많이 투표한 답을 Output으로 가져가는 기법이에요. [Over-fitting] 반면에 MLP(Multi Layer Percept.. 2022. 2. 19.