검색어 입력폼

Steepest Descent Method, Newton`s Method, Conjugate gradient + line Search, DFP, BFGS와 Memoryless Quasi-Newton 이론을 바탕으로 최적화 알고리즘을 구현

저작시기 2010.12 |등록일 2011.01.17 파일확장자압축파일 (zip) | 14페이지 | 가격 1,500원

소개글

Steepest Descent Method, Newton`s Method, Conjugate gradient + line Search, DFP, BFGS와 Memoryless Quasi-Newton 이론을 바탕으로 최적화 알고리즘을 구현하며, 출력 데이터를 비교 분석.

목차

1. 요약

2. 제약 사항

3. 구현 환경

4. 구현
A. Minimize f(x) 정의 구현 부
B. Global 변수
C. Global 함수
D. Steepest Decent Method
E. Newton’s Method
F. Conjugate gradient + Line search
G. DFP
H. BFGS
I. Memoryless Quasi-Newton

5. 프로그램 실행
A. 프로그램 실행 방법
B. 예제 1
C. 예제 2

본문내용

4. 구현
A. Minimize f(x) 정의 구현 부
프로그램에 입력으로 f(x)를 정의하지 않고 수동으로 프로그램 소스 상에서 직접 정의 하도록 구현하였습니다. 이를 위해서 정의된 내용은 다음과 같습니다. <Figure 1>의 파란색 박스에서 보는 바와 같이 Global 변수인 nSectionCount는 최대 Section의 수를 지정하는 변수이며, Global 변수인 nDimCount 는 최대 변수의 수를 지칭합니다. 구조체인 Section은 내부 변수인 constantNum과 nDimCount의 수만큼의 배열로 정의된 dim 변수가 존재합니다. 구조체 Function은 내부 변수로서 구조체 Section을 nSectionCount의 수만큼의 배열로 정의됩니다. 이는 최적화 알고리즘을 구현할 시에 요구되는 편 미분 및 Hessian Matrix 설정 등에 편리하게 구현 되도록 하도록 하였습니다

<<프로젝트 소스 포함>>

참고 자료

없음
다운로드 맨위로