DL & ML/Study (4) 썸네일형 리스트형 모델 일반화를 위한 데이터 전처리 기법 Bias & Variance 학습이 너무 안됐거나, 학습이 너무 됐거나 High Bias : Underfitting High Variance : Overfitting Train / Validation 학습 데이터셋 중 일정 부분을 따로 분리 → valid set으로 활용 학습에 이용되지 않은 데이터셋을 사용하여 일반화됐는지 확인! Data Augmentation 주어진 데이터가 가질 수 있는 Case, State를 다양하게 만들어봄 낮에 찍힌 자동차 사진 → 밤으로 변경, 폭우인 날로 변경 등등 문제가 만들어진 배경과 모델의 쓰임새로부터 힌트 얻을 수 있음! torch vision.transforms 이미지에 적용할 수 있는 다양한 함수 제공 (ex. RandomCrop, Flip) Albumentati.. 모델 큐레이션 사이트 모음 (모델 트렌드) 전반적인 모델의 트렌드를 파악하기 위한 모델 큐레이션 사이트 모음입니다. 새로운 분야를 공부하기 전 참고하면 좋을 것 같습니다. Papers with Code - The latest in Machine Learning Papers With Code highlights trending Machine Learning research and the code to implement it. paperswithcode.com Awesome Projects Deep Learning and deep reinforcement learning research papers and some codes endymecy.github.io 차원의 저주(Curse of dimensionality)란? 우리가 데이터를 가지고 예측 모델을 만들 때 대체로 데이터의 차원이 하나일 때 보다 여러 차원일 때 더 정확한 모델을 만들 수 있습니다. 예를 들어 A라는 사용자에게 SNS 글을 추천해준다고 하였을 때 SNS 글을 표현하는 속성이 "태그"하나 일때 보다 태그, 사진, 글 내용, 팔로워 수 등등의 정보가 있을 때 더 정확한 추천이 가능하겠죠? 이게 일반적으로 우리가 모델을 만들 때의 생각입니다. 그러나 차원의 저주는 반대의 이야기 입니다. 데이터 학습을 위한 차원이 증가할 수록 성능이 저하가 되는 현상을 이야기합니다. 이는 차원이 증가할 수록 개별 차원 내에 학습할 데이터 수가 적어지는 현상 때문입니다. 즉, 차원이 커지면 데이터를 표현해야하는 공간이 커지고, 그 공간 내에 모든 경우를 다 채우려면 더 많.. Adversarial Training(적대적 학습) 이란? 적대적 학습이란? 머신 러닝은 사람이 못하는 것을 예측할 수도 있지만, 동시에 인위적인 조작에 취약하기도 합니다. 이러한 허점을 이용하여 모델이 잘못된 예측을 하도록 속이는 것을 적대적 공격이라고 합니다. 예를 들어 왼쪽, 오른쪽 모두 우리가 보기에는 판다 사진입니다. 하지만 사실 오른쪽 판다 사진은 왼쪽 판다 사진에 사람은 구별할 수 없는 미세한 노이즈 또는 변화를 준 것입니다. 모델은 이러한 미세한 조정만으로도 오른쪽 판다를 긴팔 원숭이라고 착각할 수 있습니다. 딥 러닝 알고리즘은 픽셀 값, 단어의 순서 등 데이터의 패턴을 사람과는 다르게 숫자 처리를 통해 찾아내기 때문에 이러한 문제가 생기는 것입니다. 특히 대부분의 모델들은 예측하는 과정이 "블랙 박스"이기 때문에 더 또 다른 예로는 자율주행 연구.. 이전 1 다음