예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (114) N
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (0)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (7) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (3) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

Learning rate pytorch aws lambda cs231n: deep learning for computer vision gradient descent openAI API Key cs236: deep generative models stanford cs231n 필기본 docker stanford cs236 필기본 Tensor Manipulation aws IoT core 모두를 위한 딥러닝 시즌2 파이토치 딥러닝 cost 계산 firebase 라즈베리파이 django 프로젝트 구조 인공지능 논문 리뷰 docker container

최근글

댓글

공지사항

아카이브

one-hot vector(1)

  • [PyTorch] Softmax Classification 실습 : 모두를 위한 딥러닝 시즌2

    Softmax 분류 이론 요약 이전 포스팅에서는 sigmoid 함수로 H(x)를 계산하고, binary_cross_entropy 함수를 활용하여 Cost를 계산했다. 이 방법은 이진 분류 문제에 적합하다. 이번에는 다중 클래스 분류 문제에 적합한 방법을 알아보았다.  간단하게 핵심을 정리하면 softmax 함수로 H(x)를 계산하고, cross_entropy 함수를 활용하여 Cost를 계산한다. softmax 함수는 여러 개의 실수로 이루어진 벡터를 확률 분포로 변환하며, cross_entropy 함수는 실제 레이블(one-hot 벡터)과 예측한 확률 분포의 차이를 구할 때 사용한다.Softmax 분류 구현 코드라이브러리 import & 시드값 고정# Library importimport torchimp..

    2024.09.07
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바