목록인공지능 개념 (32)
Bamboo is coming
Computational Thinking https://computationalthinking.mit.edu/Fall20/ 18.S191 Introduction to Computational Thinking Welcome to MIT 18.S191 aka 6.S083 aka 22.S092, Fall 2020 edition! This is Fall 2020. For Spring 2021, see our new website. This is an introductory course on Computational Thinking. We use the Julia programming language to approach real-world problems in va computationalthinking.mit..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/o2kzB/btsE95NBnYR/3lexCraTpHjaKLdwIrccPK/img.png)
본 글은 팡요랩 유튜브를 보고 정리한 글입니다. 동영상에서는 PRML(Pattern Recognition & Machien Learning, Bishop)을 참고했다고 합니다. 정보량은 깜놀도로 확률 p(x)에 대한 함수이다. 확률과 엔트로피는 시소같은 관계로 monotonic하다라고도 표현한다. \(h(x, y) = h(x) + h(y)\) 정보량은 사건의 불확실성을 측정하는 것으로, 두 사건이 독립적일 때, 한 사건의 정보량과 다른 사건의 정보량을 합한 것은 두 사건이 동시에 발생했을 때 총 정보량과 같다. 독립 사건의 정보량이 서로 추가적인 정보를 제공하기 때문에, 각 사건의 정보량을 단순히 더하면 전체 사건의 정보량이 된다. 예시, 두 개의 방의 스위치 상태를 알게 된다고 하면(정보량) 첫 번째,..
딥러닝 Ch3.3 VAE KAIST 스마트설계연구실 강남우 교수(전 숙명여대)의 딥러닝과 설계 강의입니다. https://www.youtube.com/watch?v=GbCAwVVKaHY https://2ndyoung.tistory.com/165 VAE(Variation Auto Encoder) 오토인코더(Autoencoder)와 변분 오토인코더(VAE, Variational Autoencoder)는 모두 입력 데이터를 압축하고 복원하는 작업을 수행하는 딥러닝 모델입니다. 그러나 두 모델은 몇 가지 중요한 차이점을 가집 2ndyoung.tistory.com
https://aistudy9314.tistory.com/m/48 [논문리뷰] Deep Image Prior(2) 지난 번에 이어서 계속 리뷰를 해보도록 하겠다! 이전 리뷰를 안봤다면 먼저 보고오도록!! https://aistudy9314.tistory.com/47 [논문리뷰] Deep Image Prior(1) 이번에 소개할 논문은 Deep Image Prior라는 제목의 pap aistudy9314.tistory.com 데이터셋에서 학습시킨 노이즈와의 loss를 구하는 것이 아니라 깨끗한 이미지와 random 노이즈와의 loss를 구하기 때문에 특정이미지(깨끗한 이미지)의 특징을 잡아내는 용도로 사용한다. prior은 여기서 사전학습된 지식으로 생각할 수 있다. deep image prior는 데이터..
https://www.lakera.ai/blog/what-is-in-context-learning What is In-context Learning, and how does it work: The Beginner’s Guide | Lakera – Protecting AI teams that disrupt the worl Dive into In-context learning: its functioning, approaches, benefits, challenges, and real-world applications. Everything you need to know. www.lakera.ai
https://nrhan.tistory.com/entry/distributed-representation
오토인코더(Autoencoder)와 변분 오토인코더(VAE, Variational Autoencoder)는 모두 입력 데이터를 압축하고 복원하는 작업을 수행하는 딥러닝 모델입니다. 그러나 두 모델은 몇 가지 중요한 차이점을 가집니다. 오토인코더 (Autoencoder): 목적: 데이터의 차원을 축소(Dimensionality Reduction), 노이즈 제거(Denoising), 특성 학습(Feature Learning) 등에 주로 사용됩니다. 구조: 인코더와 디코더로 구성되어 있으며, 인코더에서 입력을 압축(encode)하고 디코더에서 복원(decode)합니다. 확률론적 접근: 오토인코더는 일반적으로 확률론적이지 않습니다. 즉, 동일한 입력에 대해 항상 동일한 출력을 생성합니다. 변분 오토인코더 (VA..
https://velog.io/@viriditass/GAN%EC%9D%80-%EC%95%8C%EA%B2%A0%EB%8A%94%EB%8D%B0-%EA%B7%B8%EB%9E%98%EC%84%9C-%EC%96%B4%EB%96%A4-GAN%EC%9D%B4-%EB%8D%94-%EC%A2%8B%EC%9D%80%EA%B1%B4%EB%8D%B0-How-to-evaluate-GAN GAN은 알겠는데, 그래서 어떤 GAN이 더 좋은건데? Evaluating Generative Adversarial Networks 👨🎓❓GAN의 성능은 도대체 어떻게 평가⚖해야 할까? Generative Adversarial Networks, 줄여서 GAN은 2014년도에 Ian J. Goodfellow의 논문을 거쳐 오늘날까지 여러 논문..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/dazSxZ/btsxsl4LI3d/EFtAaeXCjde3SII0FHKwZ1/img.png)
비지도학습의 종류 클러스터링 알고리즘(Clustering algorithms) 클러스터링 알고리즘, 즉 군집화 알고리즘은 분류되지 않은 데이터에서 구조나 패턴을 찾는 데 도움을 준다 이상 감지 모델(Anomaly detection) anomaly detection 알고리즘은 데이터 세트에서 변칙적인 것이나 이례적인 것을 자동으로 감지하고 알려준다. 사기성 거래, 하드웨어 결함 또는 사람의 실수로 인한 잘못된 데이터 포인트를 발견하는 데 유용하다. 잠재 변수 모델(Latent variable models) 데이터가 엄청나게 복잡한 경우에는 데이터를 통한 학습이 어려울 수 있다. 우선, '불량(noisy)' 데이터를 제거하여 단순화함으로써 학습을 용이하게 하고, 데이터에서 의미 있는 인사이트를 찾을 수 있다..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bMCsdF/btswPX5iEIg/xvq9CM4cEht8zjwQtjw340/img.png)
생성형 모델은 분포를 기반으로 학습시켜 최대한 유사한 분포가 나오도록 하는 것이 목표 1. 잠재 변수(latent variable) 데이터 분포를 만드는데에 영향을 끼치는 변수 Generative Model은 데이터에서 숨겨진 잠재 변수를 학습할 수 있다. 다차원 데이터 세트를 처리하고 비선형 함수를 조합하여 학습을 시킨다. 따라서 어떤 데이터의 잠재변수를 알아내면 이를 통해 유사한 데이터를 생성해낼 수 있다. 따라서 많은 주행 이미지 데이터를 학습 시키고 잠재 변수에 의하여 유사한 데이터를 생성하면 데이터의 생성 분포를 알 수 있고, 분포의 가장자리에 있는 곳이라고 판단 되었을 때 이상치라 판별한다. 여기서 잠재변수의 근간이 되는 아이디어가 주성분분석(Principal component analysis..