예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (116) N
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (0)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (9) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (5) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

stanford cs231n 필기본 aws IoT core 딥러닝 cost 계산 firebase 졸업프로젝트 django 프로젝트 구조 gradient descent docker Learning rate Tensor Manipulation 라즈베리파이 stanford cs236 필기본 cs231n: deep learning for computer vision 모두를 위한 딥러닝 시즌2 cs236: deep generative models openAI API Key docker container pytorch aws lambda 파이토치

최근글

댓글

공지사항

아카이브

softmax 계산식(1)

  • [PyTorch] Softmax Classification 실습 : 모두를 위한 딥러닝 시즌2

    Softmax 분류 이론 요약 이전 포스팅에서는 sigmoid 함수로 H(x)를 계산하고, binary_cross_entropy 함수를 활용하여 Cost를 계산했다. 이 방법은 이진 분류 문제에 적합하다. 이번에는 다중 클래스 분류 문제에 적합한 방법을 알아보았다.  간단하게 핵심을 정리하면 softmax 함수로 H(x)를 계산하고, cross_entropy 함수를 활용하여 Cost를 계산한다. softmax 함수는 여러 개의 실수로 이루어진 벡터를 확률 분포로 변환하며, cross_entropy 함수는 실제 레이블(one-hot 벡터)과 예측한 확률 분포의 차이를 구할 때 사용한다.Softmax 분류 구현 코드라이브러리 import & 시드값 고정# Library importimport torchimp..

    2024.09.07
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바