예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (114) N
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (0)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (7) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (3) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

openAI API Key cs231n: deep learning for computer vision 파이토치 Learning rate stanford cs236 필기본 docker container 라즈베리파이 aws IoT core gradient descent django 프로젝트 구조 인공지능 논문 리뷰 Tensor Manipulation pytorch stanford cs231n 필기본 cs236: deep generative models firebase 딥러닝 cost 계산 aws lambda 모두를 위한 딥러닝 시즌2 docker

최근글

댓글

공지사항

아카이브

소프트맥스 함수 기능(1)

  • [PyTorch] Softmax Classification 실습 : 모두를 위한 딥러닝 시즌2

    Softmax 분류 이론 요약 이전 포스팅에서는 sigmoid 함수로 H(x)를 계산하고, binary_cross_entropy 함수를 활용하여 Cost를 계산했다. 이 방법은 이진 분류 문제에 적합하다. 이번에는 다중 클래스 분류 문제에 적합한 방법을 알아보았다.  간단하게 핵심을 정리하면 softmax 함수로 H(x)를 계산하고, cross_entropy 함수를 활용하여 Cost를 계산한다. softmax 함수는 여러 개의 실수로 이루어진 벡터를 확률 분포로 변환하며, cross_entropy 함수는 실제 레이블(one-hot 벡터)과 예측한 확률 분포의 차이를 구할 때 사용한다.Softmax 분류 구현 코드라이브러리 import & 시드값 고정# Library importimport torchimp..

    2024.09.07
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바