인지, 청취, 인공지능 분야의 연구가 보청기 성능의 미래를 바꾸고 있다.

많은 청력관리 전문가에게 “Deep Neural Networks”(DNN, 심층신경망)라는 용어는 비교적 새로운 용어입니다. 그러나 DNN은 이미 많은 분야에 성공적으로 통합되었으며 많은 전문가가 사용하며 놀라운 기술의 배열에서 찾을 수 있습니다. 보청기에 DNN을 적용하는 것은 완전히 새로운 음향 처리 접근 방식과 기술을 나타냅니다. 우리의 직업에서 보청기와 관련하여 DNN은 더 높은 음질, 개선 된 신호 대 잡음비 (SNR), 개선 된 음성 이해, 개선된 리콜 등의 약속을 제공합니다.

보청기 증폭은 소리를 들을 수 있게하고 난청이 있는 수백만 명의 사람들의 삶의 질을 향상시키는면에서 확실히 성공적 이었지만, 소음 속 음성(SIN)을 명확하게 이해하는 능력은 여전히 ​​많은 사람들에게 문제가 됩니다. 사실, SIN을 이해하지 못하는 것은 감각 신경성 난청 (SNHL)을 가진 사람들과 전통적인 보청기의 많은 사용자들에게 가장 큰 불만입니다.

 

SIN 불만은 일반적으로 SNHL의 성격과 정의에 근거합니다. 노화, 외상, 소음, 이독성 화학 물질 등으로 외부 및 내부 유모 세포가 손상되거나 파괴됨에 따라 내이에서 뇌로 전달되는 신경 코드의 양과 질이 감소합니다. 시간이 지남에 따라 청력 손실이 증가함에 따라 신경 코드는 더욱 저하됩니다. 따라서 뇌는 저하된 신경 코드를 이해 또는 분해하기 위해 청취 노력을 증가시키고 더 많은 에너지를 소비해야 합니다. DNN은 더 쉽게 이해할 수있는 향상된 신경 코드를 촉진 할 수 있습니다.

 

기존의 청각 장치는 지향성 마이크 및 소음 감소 알고리즘을 포함한 고급 신호처리를 사용하여 SIN 문제를 해결했습니다.  예를 들면 다음과 같습니다.

  • 지향성 마이크는 종종 관심 신호가 청취자 앞에 있다고 가정하면서 청취자 뒤에서 발생하는 정상 상태 소음 및 잔향을  걸러내거나 감소시킵니다. 단점은 상황 인식의 상실, 귀 사이의 소리의 왜곡 및 기타 국소적 신호의  왜곡,  그리고 청각 장면 전체에 대한 인식의 감소 등 입니다. 물론 방해하는 소음이 청취자 앞에 있으면 방향성 시스템이 이를 감쇠시킬 수 없습니다.

  • 소음 감소 알고리즘은 안정된 상태의 소음을 억제하고 편안함을 높이고 청취 노력을 줄일 수 있지만 일반적으로 낮은 신호 대 잡음비 (SNR), 높은 리버브 환경, 칵테일 파티/식당 및 기타 도전적인 음향 환경과 같은 어려운 청취 상황에서 음성 명료도를 향상 시키지는 않습니다. 

인공지능, 머신러닝, 심층신경망 (Artificial Intelligence, Machine Learning, and Deep Neural Networks)

"인공 지능"(AI), "머신 러닝"(ML) 및 "심층 신경망"(DNN)이라는 용어는 모호하고 상호 호환성이 있어 보일 수 있습니다. 그러나 우리가 가장 정교하고 진보된 프로토콜인 DNN에 도달할 때까지 다소 포괄적 인 용어 인 “AI” 에서 “ML”로 이동하면서 계산 분석, 의사 결정 및 정교함의 수준이 증가하게 됩니다 (그림 1).

 

[그림1] 심층신경망 (DNN)은 인공지능 (AI)의 하위 집합인 머신러닝(ML)의 하위 집합입니다. DNN은 방대한 데이터 세트를 빠르게 분석하고 해석합니다. DNN은 컴퓨터, 프로세서 및 기타시스템이 사람이 방대한 양의 들어오는 데이터에 응답하는 방식과 유사한 방식으로 응답하도록 가르치는 동시에 지속적인 검사, 재검사, 수정 및 검증을 통합하도록 개발되었습니다.

 

Moolayil 은 AI가 기계에 도입된 지능의 품질이라고 이야기합니다. 기계를 "스마트"하게 만들기 위해 우리는 기계에서 만든 선택을 용이하게 합니다. 예를 들어, 세탁기는 적절한 양의 물과 적절한 온도를 사용하여 담그고, 씻고, 회전합니다. 마찬가지로 냉장고의 온도 조절기는 미리 선택된 매개 변수 내에서 온도를 자동으로 조정합니다. 비교적 단순한 기계에 프로그래밍된 지능을 인공지능 이라고 합니다. 

 

머신러닝은 AI보다 더 정교합니다. 기계학습은 명시적인 프로그래밍 없이 기계에 "지능을 유도"합니다. 머신이 순열 또는 규칙의 포괄적인 목록으로 인코딩되지는 않았지만 머신은 이전 노출에서 학습하거나 훈련을 받습니다. Copeland 는 기계 학습이 알고리즘을 사용하여 데이터를 구문 분석하고, 데이터로부터 학습하고, 무언가를 결정 / 예측한다고 보고합니다. 예를 들어, 보청기가 시끄러운 정상 상태 소음을 감지 할 때 보청기가 omni에서 무 지향성 설정으로 전환될 때 기계학습이 사용됩니다. 다른 예로 과거 시험 결과와 학생 속성을 학습하여 학생이 시험에 합격할지 여부를 예측할 수있는 시스템이 있습니다. 여기에서 시스템은 학생의 합격 여부를 결정할 수있는 가능한 모든 규칙의 포괄적인 목록으로 인코딩되지 않고, 대신 제공된 과거 훈련 데이터에서 식별된 패턴을 기반으로 시스템이 스스로 학습합니다.

 

DNN은 수십 년 동안 진화 해 왔습니다. DNN은 거대한 데이터 세트를 이해 하고, 컴퓨터가 인간이 하는 일을 더 많이 또는 적게 수행하도록 설계되었습니다. 그러나 DNN이 결정에 도달하면 그들은 스스로 확인합니다. 입력 데이터 세트가 증가함에 따라 출력은 입력에 대해 지속적으로 검증됩니다. "성공적인 근사치"를 통해 입력 데이터 세트가 증가함에 따라 정확도가 증가합니다. 이 모든 것은 특정 교육알고리즘 없이도 가능합니다.

 

마찬가지로, 살아있는 인간 두뇌 내의 DNN의 경우, 처방되거나 사전 인쇄된 지침이 없습니다. 인간의 뇌는 엄청난 양의 들어오는 데이터 (예 : 감각 경험)를 수신하고 시간이 지남에 따라 학습이 발생합니다. 예를 들어, 대부분의 아기는 특정한 지시 없이 말하고 걷는 법을 배웁니다. 일반적으로 아기는 1년 정도 오감으로부터 감각 입력을 받고, 특별한 지시 없이는 그들의 뇌가 걷기와 말하기 프로토콜을 파악하고 관여합니다. 목표(걷기 및 말하기)를 향한 진전이 발생하고 결국 연속적인 근사, 수정, 편집, 확인 및 교차 확인을 통해 성공이 이루어집니다. 새들이 날아 다니는 법을 배우고 물고기가 수영하는 법을 배우는 것에도 DNN이 참여합니다.

 

심층 신경망의 단순화된 버전은 다른 뉴런과 연결되어 있는 뉴런의 계층적(계층화 된)조직 (뇌의 뉴런과 유사)으로 표현됩니다. 이러한 뉴런은 수신된 입력을 기반으로 다른 뉴런에 메시지 또는 신호를 전달하고 일부 피드백 메커니즘으로 학습하는 복잡한 네트워크를 형성합니다. 다음 다이어그램은 'N'계층 심층 신경망을 나타냅니다 (그림2).

 

[그림2] N개의 숨겨진 층을 가진 심층 신경망

 

위의 그림에서 참조할 수 있듯이 입력 데이터는 첫 번째 계층 (숨겨지지 않음)의 뉴런에 의해 소비되고 다음 계층 내의 뉴런에 출력을 제공하는 식으로 최종 출력을 제공합니다. 출력은 Yes 또는 No (확률로 표시됨)와 같은 예측일 수 있습니다. 각 계층은 하나 또는 여러 개의 뉴런을 가질 수 있으며 각각은 작은 함수, 즉 활성화 함수를 계산합니다.

 

활성화 함수는 신호를 모방하여 다음 연결된 뉴런으로 전달합니다. 들어오는 뉴런이 임계값보다 큰 값을 가져오면 출력이 전달되고 무시됩니다. 연속적인 층의 두 뉴런 사이의 연결에는 관련 가중치가 있습니다. 가중치는 다음 뉴런에 대한 출력과 결국 전체 최종 출력에 대한 입력의 영향을 정의합니다. 신경망에서 초기 가중치는 모두 무작위이지만 모델 학습 중에 이러한 가중치는 올바른 출력을 예측하는 방법을 학습하기 위해 반복적으로 업데이트됩니다. 

 

직관적인 이해를 위해 인간의 두뇌가 다른 사람을 식별하는 방법을 학습하는 방법을 예로 들어 보겠습니다. 두 번째로 사람을 만나면 그 사람을 식별 할 수 있습니다. 어떻게 이런 일이 발생합니까? 사람들은 전체적인 구조가 비슷합니다. 두 눈, 두 귀, 코, 입술 등 모든 사람이 같은 구조를 가지고 있지만 우리는 사람을 아주 쉽게 구별 할 수 있습니다.

 

뇌의 학습 과정은 매우 직관적입니다. 사람을 식별하기 위해 얼굴의 구조를 학습하는 대신 일반 얼굴과의 편차, 즉 그의 눈이 기준 눈과 얼마나 다른지 학습한 다음, 정의된 강도를 가진 전기 신호로 정량화 할 수 있습니다. 마찬가지로, 기준베이스에서 얼굴의 모든 부분에서 편차를 학습하고 이러한 편차를 새로운 차원으로 결합하고 최종적으로 출력을 제공합니다. 이 모든 것은 우리 중 누구도 잠재 의식이 실제로 무엇을했는지 깨닫지 못하는 순간에 발생합니다.

 

마찬가지로 위에서 소개한 신경망은 수학적 접근 방식을 사용하여 동일한 프로세스를 모방하려고 합니다. 입력은 첫 번째 계층의 뉴런에 의해 소비되고 활성화 함수는 각 뉴런 내에서 계산됩니다. 간단한 규칙에 따라 다음 뉴런으로 출력을 전달합니다. 이는 인간의 뇌가 학습한 편차와 유사합니다. 뉴런의 출력이 클수록 해당 입력 차원의 중요성이 커집니다.그런 다음 이러한 차원은 다음 레이어에서 결합되어 우리가 이해할 수 없는 추가적인 새 차원을 형성합니다. 그러나 시스템은 이를 직관적으로 학습합니다. 이 프로세스를 여러번 곱하면 여러 연결이 있는 복잡한 네트워크가 개발됩니다.

 

 

참고 문헌 및 소스:

- Bramsløw L, Beck DL. Deep neural networks in hearing devices. Hearning Review. 2021;28(1):28-30.

- Jojo John Moolayil. A Layman’s Guide to Deep Neural Networks. 2019.Jul 24

 

 

이편한보청기 청각센터


[하단 광고]

[상담전화 -자동연결]

 

[일대일 채팅상담]

 

[방문 상담 예약]

 

댓글

Designed by JB FACTORY