목록전체 글 (163)
Bamboo is coming
https://www.thedatahunt.com/trend-insight Trend Insight - 데이터헌트의 AI 비즈니스 심층 분석데이터헌트가 집중 분석한 AI 분야의 최신 뉴스, 국내외 AI 기업의 구축 사례 및 기술을 심층 분석하여 비즈니스와 사업을 한 단계 도약시킬 인사이트를 제공합니다. 뉴스레터를 구독하시면 주기www.thedatahunt.com https://www.thedatahunt.com/tech-review Tech Review - 데이터헌트의 AI 가공 기술과 성과 공유데이터헌트가 AI 학습 데이터의 가공 품질을 높이기 위해서 자체 알고리즘을 개발하고 AI model을 최적화 한 성과를 공유합니다. Annotation tech, AI model analysis 등 최신 AI 모..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bupnIN/btsp7AbqhjH/jTipTK6ucWLU6ncjdghzK1/img.png)
validation은 epoch마다! CutMix 적용후 정확도가 0.004 증가했다. https://provia.tistory.com/m/79 딥러닝으로 고양이와 개를 구분해보자. 다른 AI와는 다르게, 비전과 일부 언어쪽은 헤비한 GPU서버 사용을 요구해서, AI를 학습하다가, 조금만 깊이 들어가면 노트북으로는 어림도 없는 지경에 이르게 됩니다. 일반적인 데이터분석과는 provia.tistory.com https://teddylee777.github.io/pytorch/transfer-learning-cats-vs-dogs/#%EB%AA%A8%EB%8D%B8-%ED%9B%88%EB%A0%A8training--%EA%B2%80%EC%A6%9D PyTorch 전이학습(transfer learning)과 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cjZ8Rh/btsp9qeyzYv/WZ4eADHikZ0X6LuhrH0Zs0/img.png)
Regional Dropout은 CNN 분류기의 성능을 강화시켜왔다.물체의 덜 구별되는 구분에 대해 주목하여 지도하는 방식으로 일반화와 효과적인 객체 지역화 기능을 검증했다. 하지만, 검은 픽셀이나 랜덤 노이즈 픽셀을 training image에 오버레이함으로써 픽셀을 지운다. 이는 정보 손실과 비효율성을 야기한다. 1. Mixup aumentation 2. Cutout aumentaion 3. CutMix augmentation 논문 CutMix : 2019년 ICCV에서 발표된 aumentation .method/ 연세대와 네이버 클로바에서 연구를 했다. Cutmix augmentation은 patch 영역에 비례하여 ground truth label이 섞인 training image 중에서 patc..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/TzM7m/btsp7Ugoqzi/uzk020F7gCSAkFimyBOIxK/img.png)
Confusion Matrix분류구분정답값예측값일치 여부TP(True Positive)진짜 양성관심 범주관심 범주일치 = TrueTN(True Negative)진짜 음성관심 X관심 X일치 = TrueFP(False Positive)가짜 양성관심 X관심 범주불일치 = FalseFN(False Negative)가짜 음성관심 범주관심 X불일치 = False Accuracy(정확도) 정답값과 예측값이 일치한 확률 $Accuracy=\frac{TP+TN}{TP+TN+FP+FN}$ Recall(재현율) 정답이 관심 범주인 것들 중에서 예측값이 관심 범주로 예측한 확률 recall = sensivity = hit rate, 정답의 입장에서 $Recall=\frac{TP}{TP+FN}=\frac{모델 정답}{실제 정답..
https://m.blog.naver.com/mykepzzang/220838887115 [확률과 통계] 30. 이산확률분포(2) - 이항 분포, Binomial Distribution이번에 소개할 이산 확률분포는 '이항 분포' 입니다. 이것은 이미 고등학교때 배우셨습니다. 바로 '독립시...blog.naver.com https://datascienceschool.net/02%20mathematics/08.02%20베르누이분포와%20이항분포.html 8.2 베르누이분포와 이항분포 — 데이터 사이언스 스쿨.ipynb .pdf to have style consistency -->datascienceschool.net
https://horizon.kias.re.kr/25133/ Generative AI 의 시대최근 주목 받고 있는 생성 인공지능(Generative AI)의 발전속도는 놀랍도록 빠르다.영상 데이터 뿐만 아니라 텍스트나 오디오 등 다양한 형태의 데이터를 고품질로 생성하는데 사용될 수 있다. 또horizon.kias.re.kr https://horizon.kias.re.kr/15780/ 수학도가 인공지능 연구에 기여하는 방법들어가며 21세기 초는 바야흐로 인공지능Artificial Intelligence 시대라 부를 수 있다. 전산학이나 전자공학뿐만 아니라 자연과학, 의학, 신소재, 생명공학, 사회과학 분야에서 학제간 인공지능 연구 horizon.kias.re.kr https://github.com/mml-..
https://aiday.tistory.com/53 정렬 알고리즘 특징/종류/시간 복잡도 [ 선택, 삽입, 버블, 합병, 힙, 퀵, 기수 ] 알고리즘이 무엇인가? 알고리즘은 어떤 문제를 해결하기 위한 동작들의 절차입니다. 일상에서 보면 내가 목적지까지 가기 위한 과정을 말하기도 하고 프로그래밍에서는 입력받은 인풋을 통해 aiday.tistory.com https://mole-starseeker.tistory.com/81 자료구조 / 알고리즘 짧막 지식 for 면접 # 시간 복잡도 - Big-O 표기법: 알고리즘 최악의 실행 시간 표기. 아무리 최악의 상황이여도 이정도의 성능은 보장한다는 의미다. - 입력 n의 크기에 따른 순서: O(1) < O(logn) < O(n) < O(nlogn) < O(n^2) ..
활성화함수는 입력값을 받아 비선형의 출력값을 낸다. 이는 신경망을 더 여러 겹을 쌓을 수 있게 해준다. 1. Sigmoid (시그모이드 함수) 수식: $ \sigma (x)=\frac{1}{1+e^{−x}}$ 범위: 0과 1 사이 특징: 이진 분류 문제의 출력 계층에서 주로 사용됩니다. 2. Hyperbolic Tangent (하이퍼볼릭 탄젠트 함수) 수식: $tanh(x)=\frac{e^x −e^{−x}}{e^x +e^{−x}}$ 범위: -1과 1 사이 특징: 시그모이드 함수와 비슷하나, 더 넓은 출력 범위를 가집니다. 3. ReLU (Rectified Linear Unit) 수식: $f(x)=max(0,x)$ 범위: 0 이상 특징: 음수를 0으로 만들고, 양수는 그대로 전달합니다. 계산 효율이 좋고..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Ivr2I/btsrSN7gwjW/Yg2f3On6t47d7FmaZwsbK0/img.png)
1. 손실함수(Loss function)란 손실함수는 정답 \(y\)와 예측값 \( \widehat{y} \)의 오차를 나타내는 함수로, \( j(\lambda) \)라고 주로 표기한다. 목적함수(object function), 비용함수(cost function)라고도 불리는 데 모두 같은 뜻이다. 손실함수는 목적에 따라 회귀, 분류에 사용되는 손실함수로 나뉜다. 2. Regression - continuos value 회귀는 출력 값이 연속적인 범위 내에서 변화한다. 예측된 값은 실수 범위 내의 어떤 값이든 될 수 있으며, 제한이 없다. 2.1. 계산법 L1, L2 loss는 계산 방법에 따라 수식에 차이가 있다. 2.1.1 평균오차(Mean Error) 샘플의 양에 관계없이 샘플의 수로 나누기 때문에..
http://disq.us/t/33x8rir 가중치 초기화 (Weight Initialization)An Ed editionreniew.github.io https://at0z.tistory.com/m/35 09-2. Weight initialization본 글은 '모두를 위한 딥러닝 시즌 2'와 'pytorch로 시작하는 딥 러닝 입문'을 보며 공부한 내용을 정리한 글입니다. 필자의 의견이 섞여 들어가 부정확한 내용이 존재할 수 있습니다. We initialized theat0z.tistory.com