예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (99) N
    • Artificial Intelligence (50) N
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (7) N
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (4)
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (0)
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

Tensor Manipulation pytorch docker container aws IoT core cs236: deep generative models firebase aws lambda cs231n: deep learning for computer vision gradient descent 졸업프로젝트 django 프로젝트 구조 파이토치 stanford cs236 필기본 Learning rate 라즈베리파이 모두를 위한 딥러닝 시즌2 stanford cs231n 필기본 딥러닝 cost 계산 docker openAI API Key

최근글

댓글

공지사항

아카이브

딥러닝 cost 계산(2)

  • [PyTorch] Multivariable Linear Regression 실습 : 모두를 위한 딥러닝 시즌2

    Multivariable Linear Regression 이론 요약 Linear regression과 Multivariable Linear Regression의 Hypothesis 식은 변수의 개수로 인해 차이가 있으나, Cost function 및 Gradient 계산식은 동일하게 적용된다.Multivariable Linear Regression 구현 코드 모델 생성과 Hypothesis 및 Cost 계산을 직접 수행하는 방식과 모듈 및 함수를 활용하는 방식 2가지로 구현을 했다. 방법 1. W, b로 모델 생성 & 직접 Cost 계산import torchimport torch.optim as optim# Data definitionx_train = torch.FloatTensor([[73, 80, 7..

    2024.09.03
  • [PyTorch] Linear Regression 실습 : 모두를 위한 딥러닝 시즌2

    Linear regression 이론 요약 Cost의 정의 및 함수식에서 각 변수가 의미하는바, 일반 합 대신 제곱 합의 평균을 사용하는 이유가 중요하다. Cost는 평균 잔차 제곱(Mean Squared Error, MSE)으로도 불린다.Linear regression 구현 코드 입력은 x_train 변수에, 출력은 y_train 변수에 저장한다. Weight와 Bias를 모두 0으로 초기화함으로써, 항상 출력 0을 예측한다. requires_grad를 True로 설정하여, 학습하도록 명시한다. torch.mean을 사용하여 MSE를 간편하게 계산할 수 있다.   Gradient descent는 다음과 같이 구현한다. torch.optim 라이브러리를 사용하여, [W, b] 텐서를 학습한다. lr은 L..

    2024.08.30
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바