목록전체 글 (163)
Bamboo is coming
https://angeloyeo.github.io/2022/01/03/signal_processing_introduction.html 신호 처리 서론 - 공돌이의 수학정리노트 (Angelo's Math Notes) angeloyeo.github.io 신호 처리 서론 정현파 기초 복소수 기초 페이저 (phasor) 선형 시불변(LTI) 시스템 이산 컨볼루션과 임펄스 응답 연속 신호의 샘플링 연속 시간 컨볼루션 신호 공간 (signal space) 푸리에 급수(Fourier Series) 푸리에 변환(Fourier Transform) 이산 시간 푸리에 급수(DTFS) 이산 시간 푸리에 변환(DTFT) 푸리에 변환과 위상(phase) 섀넌의 샘플링 정리 주파수 샘플링과 DFT 주파수 해상도 라플라스 변환 Z-..
Markov Chain은 어떤 상태에서 다른 상태로 넘어갈 때, 바로 전 단계의 상태에만 영향을 받는 확률 과정 https://angeloyeo.github.io/2020/09/17/MCMC.html Markov Chain Monte Carlo - 공돌이의 수학정리노트 (Angelo's Math Notes) angeloyeo.github.io https://www.puzzledata.com/blog190423/ https://ko.m.wikipedia.org/wiki/마르코프_연쇄
https://tobigs.gitbook.io/tobigs/deep-learning/computer-vision/gan-generative-adversarial-network (GAN)Generative Adversarial Nets 논문 리뷰 - Tobigs 이 방정식을 D의 입장, G의 입장에서 각각 이해해보면, -먼저 D의 입장에서 이 value function V(D,G)의 이상적인 결과를 생각해보면, D가 매우 뛰어난 성능으로 판별을 잘 해낸다고 했을 때, D가 판별하 tobigs.gitbook.io
연합 학습(Federated Learning), 그리고 챌린지
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cjPfFe/btssfzaJIVW/6TKUlLYVdHa82PK7tUop8k/img.png)
이산(떠날 이, 흩을 산; 떨어져 흩어짐) ──── INDEX ─── 1. 경우의 수 1.1. 순열(permutation) 1.2. 조합(combination) 1.2.1. 다항계수(multinomial coefficient) 1.2.2. 이항계수(bionomial coefficient) 2. 확률(Probability) 2.1. 배경 용어 2.2. 확률변수(Random variable) 2.3. 확률분포(Probability Distribution) 2.3.1. 이산확률분포(Discrete Probability Distribution) 2.3.2. 이항분포(Binomial Distribution) B(n,p) 2.3.2. 확률질량함수(probability mass function, PMF) 2.4. 연..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/divQdQ/btsts7KJSiv/7APJwuNEGh4YwW1toPWnd0/img.jpg)
RNN(Recurrent Neural Network, 순환신경망) 시계열 데이터에 적합한 네트워크로 신경망의 출력을 시퀀스 내의 이전 요소에 의존한다. 메모리 셀이 이전 단계의 맥락을 기억해 과거의 정보를 기억하는 동시에 최신 데이터로 갱신할 수 있다. 메모리 셀은 t-1 시점의 메모리 셀이 보낸 은닉 상태값을 t 시점의 은닉 상태 계산을 위한 입력값으로 사용한다. \[ h(t) = \text{tanh}(W_{hh}h(t-1) + W_{hx}x(t) + b_h) \] h(t)는 시간 스텝 t에서의 은닉 상태를 나타내며, 이전 시간 스텝까지의 정보를 내포하고 있습니다. 이는 현재 입력 x(t)와 이전 은닉 상태 h(t−1)에 의존합니다. 예를 들어, "나는 오늘 밥을" 이라는 문장이 있을 때, "밥을" 이..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Br5P9/btsrZjEPAua/vkGrUg99oAzkRfMjuE5xDK/img.png)
Convolution이란, 뒤집고 이동시키면서 곱하고 더해 이 값이 저장이 됨. convolution은 뒤집고 이동시키면서 곱하는 거지만 우리가 아는 CNN은 corelation임 뒤집지 않고 그냥 이동시키면서 곱하는 연산 필터에서는 특징을 잡는 역할을 함 숫자의 계산을 통해서 값이 커지면 해당 기여도가 높은 특징(윤곽)을 걸러낸다. 좌우가 동일한 경우 곱하고 더해서 값이 상쇄됨. 패딩 외곽에 stride 풀링 이미지 사이즈를 줄이기 위해 가장 큰 값을 추출해서 작은 사이즈의 필터 도출 CNN에서 필터는 필터마다 각자의 역할을 가진다 필터1은 얼굴을 찾고 필터2는 코를 찾고 등, 필터를 머신이 알아서 학습한다. 합성곱 신경망_유튜브(혁펜하임)
딥페이크의 원리를 알려줘 ChatGPT 물론이죠! 딥페이크(Deepfake)는 인공지능(AI)와 컴퓨터 비전(Computer Vision) 기술의 흥미로운 조합으로, 실제 사람처럼 보이는 가짜 비디오나 이미지를 생성합니다. 이를 이해하기 위해 핵심 요소와 간단한 예시를 통해 설명하겠습니다. 1. 데이터 수집 및 전처리 딥페이크 생성에 필요한 첫 번째 단계는 대량의 이미지나 비디오 데이터를 수집하는 것입니다. 예를 들어, 특정 인물의 얼굴을 딥페이크로 만들기 위해서는 그 인물의 다양한 각도와 표정의 이미지가 필요합니다. 2. 모델 구조: GAN(Generative Adversarial Network) 딥페이크는 주로 GAN이라는 모델을 사용합니다. GAN은 두 개의 신경망, 생성자(Generator)와 판..
https://www.tibco.com/ko/reference-center/what-is-logistic-regression
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/VrqJ5/btsrBp0V3nk/y4eW7JM9lZ4ecJEj7A8iM1/img.png)
머신러닝 학습에서 사용되는 대표적인 알고리즘 SVM K-means clustering Decision Tree K-Nearest Neighbor(KNN) 1. SVM(Support Vector Machine) 기계학습 분야 중 지도학습 알고리즘으로 이진 분류와 회귀에 주로 사용된다. 1995년 이후로 꾸준히 연구가 진행된 분야로 최근까지도 많이 사용될 뿐 아니라 높은 정확도를 보이고 있다. SVM의 핵심 개념은 margin과 hyperplane(초평면)이다. 이러한 SVM은 필기체 인식이나 이미지 분류 등에서 학습하는 데이터의 양을 줄일 수 있다. SVM에서 결정 경계와 가까운 샘플(셔포트 벡터)만이 결정 경계 형성에 영향을 미친다. 나머지 샘플들은 결정 경계에서 멀리 떨어져 있으므로 모델 학습의 기여하..