목록분류 전체보기
반응형
(86)
s5unnyjjj's LOG
GD(Gradient Descent) 변형 알고리즘 GD(Grdient Descent) SGD(Stochastic Gradient Descent) loss function을 계산할 때, 전체 데이터 대신 일부 조그만한 데이터(mini-batch)의 모음에 대해서만 loss 계산 Momentum NAG Adagrad RMSProp Adagrad 식에서 gradient 제곱값을 더해나가면서 구한 Adam Momentum 방식과 유사하게 지금까지 계산해온 기울기의 지수평균을 저장 RMSProp과 유사하게 기울기의 제곱값의 지수 평균 저장
프로젝트 이름 : JAVA GUI를 이용한 온라인 영화 예매참여 기간 : 2019.10~2019.11참여 인원 : 1명(홀로 진행)목차는 아래와 같다. 1. 구현 기능 2. 상세 기능 3. 클래스 4. 오류 처리1. 구현 기능GUI를 이용한 구현Java.io 패키지를 이용하여 텍스트 파일에 회원가입한 회원들 정보 저장로그인 하게 되면 메인화면의 버튼 일부 변경영화 정보는 로그인 하지 않아도 실행 가능하지만, 예매는 로그인 후 예매각 영화의 개봉날짜에 따라 날짜와 시간을 다르게 적용간식과 결제 방법을 구분하여 적용선택한 인원 수에 해당하는 좌석 선택2. 상세 기능메인 화면메인 화면예매 : 영화 예매(단, 로그인 후에만 가능)영화 : 나열된 각 영화 정보 확인로그인회원가입회원가입성명 : 최대 3글자생년월일 ..
Problem #6 : Batch normalization를 이용한 특정 node의 output 계산 하단의 표를 이용하여 아래의 그림에 표시된 h1의 output인 o2 값을 계산하시오. 단, 활성화 함수(Activation function)은 ReLU를 사용하며 Batch normalization을 사용한다. 또한 r는 2이며, beta는 -1을 사용한다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 점이 많을 수 있기에 잘못된 내용이나 궁금한 사항이 있으면 댓글 달..
Problem #5 : GD(Gradient Descent)를 이용한 가중치 업데이트 (3) 하단의 표를 이용하여 아래의 그림에 표시된 w3을 두 번 업데이트 값을 계산하시오. 단, 초기 w1, w2, w3의 값은 1이며, 활성화 함수(Activation function)은 ReLU를 사용한다. 또한 momentum rate와 learning rate는 1이다. Error function은 MSE로 하단에 표시된 식과 같다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 ..
Problem #4 : GD(Gradient Descent)를 이용한 가중치 업데이트 (2) 하단의 표를 이용하여 아래의 그림에 표시된 w1의 업데이트 값을 계산하시오. 단, 초기 w1, w2, w3의 값은 1이며, 활성화 함수(Activation function)은 ReLU를 사용한다. 또한 learning rate는 1이다. Error function은 MSE로 하단에 표시된 식과 같다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 점이 많을 수 있기에 잘못된 내용이..
Problem #3 : GD(Gradient Descent)를 이용한 가중치 업데이트 (1) 하단의 표를 이용하여 아래의 그림에 표시된 w3의 업데이트 값을 계산하시오. 단, 초기 w1, w2, w3의 값은 1이며, 활성화 함수(Activation function)은 ReLU를 사용한다. 또한 learning rate는 1이다. Error function은 MSE로 하단에 표시된 식과 같다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 점이 많을 수 있기에 잘못된 내용이..
Problem #2 : 가중치를 이용한 출력값 계산 (2) 하단의 표를 이용하여 아래의 그림에 표시된 각 노드의 출력 값을 계산하시오. 해당 문제에서 활성화 함수(Active function)는 ReLU라고 가정한다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 점이 많을 수 있기에 잘못된 내용이나 궁금한 사항이 있으면 댓글 달아주시기 바랍니다. >> 긴 글 읽어주셔서 감사합니다.
Problem #1 : 가중치를 이용한 출력값 계산 (1) 하단의 표를 이용하여 아래의 그림에 표시된 각 노드의 출력 값을 계산하시오. 해당 문제에서 활성화 함수(Active function)는 step function이라고 가정한다. 풀이를 원하실 경우, 하단의 '더보기' 를 클릭해주시기 바랍니다. 더보기 아래의 내용은 필자가 직접 작성한 풀이입니다. >> 위 내용은 필자가 공부하여 직접 정리한 내용이며, 위 그림 역시 직접 그린 그림이므로 워터마크 "s5unnyjjj"를 삽입하였음을 알려드립니다. >> 부족한 점이 많을 수 있기에 잘못된 내용이나 궁금한 사항이 있으면 댓글 달아주시기 바랍니다. >> 긴 글 읽어주셔서 감사합니다.