예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (117) N
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (0)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (10) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (6) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

docker django 프로젝트 구조 gradient descent 졸업프로젝트 aws IoT core 딥러닝 cost 계산 firebase 파이토치 cs231n: deep learning for computer vision aws lambda 모두를 위한 딥러닝 시즌2 openAI API Key cs236: deep generative models Learning rate 라즈베리파이 Tensor Manipulation docker container stanford cs236 필기본 stanford cs231n 필기본 pytorch

최근글

댓글

공지사항

아카이브

one-hot vector(1)

  • [PyTorch] Softmax Classification 실습 : 모두를 위한 딥러닝 시즌2

    Softmax 분류 이론 요약 이전 포스팅에서는 sigmoid 함수로 H(x)를 계산하고, binary_cross_entropy 함수를 활용하여 Cost를 계산했다. 이 방법은 이진 분류 문제에 적합하다. 이번에는 다중 클래스 분류 문제에 적합한 방법을 알아보았다.  간단하게 핵심을 정리하면 softmax 함수로 H(x)를 계산하고, cross_entropy 함수를 활용하여 Cost를 계산한다. softmax 함수는 여러 개의 실수로 이루어진 벡터를 확률 분포로 변환하며, cross_entropy 함수는 실제 레이블(one-hot 벡터)과 예측한 확률 분포의 차이를 구할 때 사용한다.Softmax 분류 구현 코드라이브러리 import & 시드값 고정# Library importimport torchimp..

    2024.09.07
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바