알림마당

  1. home

신경회로망의 기초와 이론적으로 중요한 과제

전문가 제언
○ 신경회로망에 있어서 결합무게의 수치를 적당하게 변화하면 그것에 따라 출력이 변화한다. 또 계층의 소자수를 증가시키면 그 입․출력의 복잡한 관계를 용이하게 상상할 수 있다. 이것은 신경망이 결합무게를 적당히 조정하는 것이 가능할 수 있는 현상 또는 시스템의 입․출력 관계를 근사적으로 현실화하는 것이 가능하다는 의미이다. 신경회로망은 뇌신경계의 기능을 모방한 정보처리 장치로서 주목되고 있지만 본질적으로는 파라메트릭 관계로 보면 좋을 것이다.

○ 발견적 방법의 유효성은 경험적으로 나타나 있지만 각 방법에 도입되는 학습을 위한 매개변수의 계통적 설정 기준이 없다는 문제가 남아 있다. 한편 학습의 문제는 비선형 최적화의 문제이다. 여기에서는 뉴튼법, 준 뉴튼법, 공역구배법 등 급하강법에 의한 빠른 알고리즘이 다수 존재한다. 이러한 알고리즘 또는 그것을 개선하기 위해 신경회로망에 적용한 연구도 많이 보이고 있는 실정이다.

○ 학습 후, 신경회로망에 대하여 데이터 내에 존재하는 규칙성을 획득 가능하다는 점 또는 같은 생성구조를 갖는 미학습 데이터에 대해서 적합성이 좋다는 점이 기대되고 있다. 이러한 성질이 없다면 예측, 해석, 결과를 신뢰할 수 없다는 문제가 발생한다. 일반적으로 데이터의 규칙성을 정확하게 획득한다면 미학습 데이터에 대해서 신경회로망의 적합성이 좋을 때 그 범화성이 좋다고 말할 수 있다.

○ 학습의 고속화, 범화성의 향상을 목적으로 한 응용상의 중요한 방법에 대해서 언급하였다. 이러한 방법은 발견적이기는 하지만 경험적 유효성이 나타나 있다. 그러나 신경회로망의 성질은 명확하게 되어 있지도 않고 이런 방법에 대한 이론적 지지도 아직은 매우 적은 편이다.

○ 최근의 연구에 의해 이러한 경우의 학습오차, 범화오차 등, 통상의 통계적인 점근론이 성립하는 상황과 전혀 다른 것이라는 것이 나타나 있다. 함수근사의 점에서 신경회로망은 기저의 가변성에 의해 효율적으로 함수근사를 행할 수 있다고 서술하고 있지만 위의 결과도 기저의 가변성에 의해 가져오는 것이다.
저자
Hagiwara Katsuyuki
자료유형
학술정보
원문언어
일어
기업산업분류
일반기계
연도
2006
권(호)
82(5)
잡지명
Journal of plasma and fusion research(N078)
과학기술
표준분류
일반기계
페이지
282~286
분석자
임*생
분석물
이 페이지에서 제공하는 정보에 대하여 만족하십니까?
문서 처음으로 이동