엔지니어를 위한 AI 시스템 설계 입문 | 반도체네트워크

죄송합니다. 더 이상 지원되지 않는 웹 브라우저입니다.

반도체네트워크의 다양한 최신 기능을 사용하려면 이를 완전히 지원하는 최신 브라우저로 업그레이드 하셔야 합니다.
아래의 링크에서 브라우저를 업그레이드 하시기 바랍니다.

Internet Explorer 다운로드 | Chrome 다운로드

엔지니어를 위한 AI 시스템 설계 입문


PDF 다운로드



글/존 가베이(Jon Gabay)

제공/마우저 일렉트로닉스(Mouser Electronics)


인공 지능(AI) 기술이 대부분의 산업과 분야에 스며들고 있다. AI는 우리가 사용하는 구글 지도 같은 애플리케이션에서부터 공장 자동화, 그리고 평행 주차 차량에 이르기까지 다양한 영역에 영향력을 미치고 있으며 앞으로도 계속 인류와 함께 할 것이다.

AI는 우리가 상호 작용하고 의존하는 시스템의 새로운 표준이 될 수 있다. 이는 현대적이고 경쟁력 있는 제품을 만들고자 하는 시스템 설계자들에게도 표준이 될 것이라는 것을 의미한다. 그러나 AI는 전통적인 아날로그 및 디지털 논리 설계에 대한 훈련을 받은 엔지니어들에게는 설계 과제가 되기도 한다. 다행인 것은 학습 곡선을 가속화하는 데 도움이 되는 다양한 장치나 라이브러리, 교육, 개발 키트가 제공되고 있다는 점이다.

TT(엔지니어)-0.jpg

다양한 설계 기법과 용어

전통적인 방식으로 교육받은 설계 엔지니어들은 시스템을 설계할 때 하향식 접근법을 사용하는 반면, AI 설계 접근 방식은 목표와 목적이 첫 번째 다이아몬드(발견, 정의)에서 정의되는 이중 다이아몬드 방식을 사용하여 시스템을 살펴본다. 아이디어를 만들어내거나 작동하는 솔루션에 도달하는 것은 두 번째 다이아몬드(발전, 전달)의 일부가 될 수 있다.

첫 번째 과제는 설계할 AI의 유형을 파악하는 것이다. 인공협소지능(ANI)은 특정 작업을 학습하고 수행한다. AI의 미래는 인공일반지능(AGI)에 있다. 기계들은 독립적으로 생각하고, 추론하고, 학습하고, 행동할 수 있다.

머신 러닝(ML)은 기계가 지시를 받는 대신 학습할 수 있도록 만드는 AI의 하위 집합이다. 구글은 머신 러닝을 인공 지능의 하위 분야로 정의하는데, 이는 컴퓨터 프로그램이 특정 규칙을 프로그래밍하지 않고 동작을 취하도록 함으로써 AI를 개발하는 기술과 방법으로 구성된다. 결국, AI에 대한 디지털 및 소프트웨어 기반 접근 방식을 기반으로 하는 머신 러닝은 방대한 양의 데이터에서 패턴을 찾은 다음, 해당 데이터를 통해 예측을 수행하는 일련의 통계 알고리즘으로 볼 수 있다. 이 기술을 사용하여 광고주나 서비스 제공회사들은 우리가 무엇을 보거나 구입할 것인지를 제안하는 것이다.


AI 학습 유형

머신 러닝은 높은 수준의 정확도를 유지하는 솔루션을 만드는 것을 목표로 한다. 지금까지 패턴을 찾고 적용하는 방법은 지도 학습, 비지도 학습, 강화 학습, 딥 러닝의 네 가지 학습 방법을 따랐다.

• 지도 학습: 지도 학습은 특정 기계에서 레이블이 지정된 데이터를 제공하여 디바이스를 통해 무엇을 찾아야 하는지 알려주는 방법이다. 그런 다음, 이 모델은 레이블이 지정되지 않고 훈련되지 않은 데이터 세트의 패턴을 인식하도록 스스로 훈련한다. 이는 특성 훈련에 대한 모델을 구축하기 위해 입력 데이터 특성을 기반으로 출력 값을 예측하는 분류 알고리즘과 회귀 알고리즘을 활용한다. 설계자들은 이 같은 문제를 해결하는 경험적 알고리즘을 실행하도록 표준 디지털 하드웨어 및 프로세서를 코딩할 수 있다.

• 비지도 학습: 비지도 학습은 입력 데이터에 레이블을 지정하지 않는다. 기계는 그저 데이터 세트 내 모든 패턴을 찾을 뿐이다. 이를 위해 필요한 인적 자원은 적지만, 원하는 수준의 정확도를 유지하는 결과가 나오기까지는 시간이 더 걸릴 수 있다. 하지만 이로써 새롭고 예상치 못한 것들을 발견할 수도 있다. 반복하여 말하는 것이지만, 표준적인 하드웨어와 코딩 기술을 활용할 경우 비지도 학습된 기계에 일반적으로 사용되는 클러스터링 및 차원 축소 알고리즘을 구현할 수 있다.

• 강화 학습: 머신 러닝에 대한 흥미로운 접근법이 바로 강화 학습이다. 이 경우 학습 프로세스를 시작하기 위한 학습 데이터가 제공되지 않는다. 대신, 프로세서 알고리즘이 직접 부딪히고 시행착오를 겪으며 학습하게 된다. 생리학적인 행동 수정 기술과 마찬가지로, 여기서도 보상과 처벌 시스템이 활용되어 원하는 행동으로 발전해 나가게 된다.

• 딥 러닝: 딥 러닝은 아마도 AI를 위한 최고의 도구이자, 오늘날 가장 자주 주목받는 도구일 것이다. 이는 신경망의 복잡한 구조를 사용한다는 점에서 나머지 다른 세 가지 접근 방식과 다르다. 신경망은 여러 처리 계층을 사용하여 점점 더 높은 수준의 특성과 추세를 얻어낸다. 각 계층은 뉴런이라고 하며, 이는 신호를 차단할지 또는 다음 상위 수준으로 전달할지 결정하는 네트워크 연결 지점이다(그림 1).

TT(엔지니어)-1.jpg
[그림 1] 신경망 계층은 점점 더 높은 수준의 학습된 특성을 나타낸다. (출처: AndS - stock.adobe.com)

딥 러닝은 인간이 특정 유형의 지식을 얻는 방식을 모방한다. 이는 방대한 양의 순차 데이터일 때 빛을 발하며 얼굴 인식, 의료 진단, 언어 번역, 자율 주행, 내비게이션 차량 등 가장 진보된 과제에 유용하게 쓰일 수 있다. 맥킨지 분석에 따르면 딥 러닝은 이미지 분류, 얼굴 인식, 음성 인식 등의 복잡한 작업에서 오류율을 각각 41%, 27%, 25% 줄인 것으로 나타났다.


새로운 유형의 논리 마스터하기

신경망은 AND, OR, NOT 기능을 찾는 논리 게이트 대신 다수결 게이트와 소수결 게이트를 사용하는 논리 체계로 볼 수 있다. 다수결 게이트는 대부분의 입력이 작동 레벨에 있을 때 활성 출력을 생성한다. 소수결 게이트는 소수의 입력이 작동 레벨에 있을 때 활성 상태를 나타낸다.

이 같은 논리 요소의 신경 무리는 대규모 데이터 세트에서 패턴을 감지하고 필터링하기 위해 계층화될 수 있다. 딥 러닝은 방대한 양의 감각 정보를 받아들여 실시간으로 사용 가능한 형태로 가공 및 필터링하는 인간의 뇌와 같은 기능을 한다.

지도 학습이나 비지도 학습, 강화 학습 시스템은 표준 디지털 회로 요소를 사용하여 구현할 수 있지만, 메모리 및 스토리지 풀과 고속 통신이 필요하다. 그러나 딥 러닝의 경우 이러한 접근 방식에서 문제가 발생한다. 문제는 매우 복잡한 시스템을 게이트 수준에서 설계하는 것이 고도로 복잡한 시스템을 구현하는 데 있어 시간 및 비용 효율적인 방법이 아니라는 점이다. 여러 개의 프로세서 코어는 가상으로 시뮬레이션된 다수 및 소수 기반의 다중 레벨 네트워크를 생성할 수 있지만, 가상 시뮬레이션 시스템은 실제 하드웨어 기반 접근 방식보다 훨씬 느릴 수밖에 없다. 실제 딥 러닝 머신에는 밀도가 높고 유연하며 민첩한 신경망 칩과 시스템이 필요하다.


기술을 선도하기 위한 경쟁

많은 기업과 조직들이 다양한 접근 방식으로 분주하게 움직이고 있다. 한 편에서는 사전 캡처된 데이터와 지식을 포함할 수 있도록 프로그램된 네트워크로 읽기 전용 저항성 시냅스의 박막 어레이가 개발되고 있고, 다른 한 편에서는 전자 뉴런 역할을 하도록 프로그램 가능한 시냅스와 증폭기의 배열이 사용되고 있다.

인텔, 퀄컴, 엔비디아, 삼성, AMD, IBM, ST 마이크로일렉트로닉스, NXP, 미디어텍, 하이실리콘, 라이트스피어, 락칩과 같은 IC 제조사들은 모두 매우 정교한 신경망 칩, IP, 개발 시스템을 제공하고 있거나 제공하는 것을 계획 중이다.

디지털 멀티 코어 접근 방식과 신경 시냅스 다중 레벨 아키텍처 모두 사용되고 있다. 심지어 인텔의 로이히 2(Loihi 2) 같은 디지털 자가 학습 칩도 있는데, 이 칩은 뉴로모픽 디바이스라는 이름으로 공개되어 세계 최초의 자가 학습 칩이라고 선전되고 있다. 엔비디아는 GPX-2라는 더 크고 빠른 GPU 클러스터를 구축하고 있는데, 이는 2페타플롭의 성능을 제공하는 것으로 알려진 비휘발성 스위치를 사용한다.

이 글에서 AI나 딥 러닝과 관련된 기기나 기술을 자세히 다루기는 어렵지만, 간단히 얘기하자면 지금 바로 입문할 수 있는 방법이 있다. 마우저 일렉트로닉스 같은 유통기업에서 공급하는 개발 키트는 앞서 언급된 AI와 딥 러닝 기술 중 일부를 사용하는 다양한 AI IP 및 라이브러리로 지원하는 싱글보드 컴퓨터와 모듈을 제공한다. 일례로 Rockchip RK399를 사용하는 Speed 110991205는 표준 디지털 I/O 및 디바이스 인터페이스, 그리고 애플리케이션 데모와 예제 코드를 지원하는 디지털 멀티 코어 기술이다.

고급 솔루션으로는 IBM의 True North Neuromorphic ASIC이 있으며, 이는 DARPA SyNAPSE 프로그램을 기반으로 한다. 4,096개의 코어를 탑재한 이 제품은 54억 개의 트랜지스터를 사용하여 2억 6800만 개의 프로그래밍 가능한 시냅스를 구현한다. IBM에 따르면 이 칩은 70mW의 초저전력 소모가 특징인데, 이는 기존 프로세서의 전력 밀도의 1/100,000에 불과하다는 점에서 주목할 만하다.


맺음말

ST 마이크로일렉트로닉스가 구글의 텐서플로(Tensor-Flow) 머신 러닝 라이브러리를 채택한 것과 같은 파트너십이 구축되면, AI 기반 머신 러닝의 신속한 개발, 교육 및 배포 준비가 마쳐질 것이다. 그러면 AI가 우리 삶의 더 많은 부분으로 스며들 것이다. 마찬가지로, IBM은 엔비디아 POWER9와 협력하여 OpenCAPI 3.0 및 PCI-Express 4.0을 지원하는 GPU 및 FPGA 기반 가속기를 제공함으로써 초고속으로 데이터 송수신이 가능하도록 했다.

AI는 이미 우리 삶에 녹아들었으며, 우리가 인식하지 못하는 사이에도 계속 사용되고 있다. 교통 장애물이 곳곳에 퍼져 있어도 동적으로 우리를 목적지까지 안내해주는 GPS 앱이 하나의 예시이다. 무엇을 시청하거나 청취할 지 제안하는 광고 제안 역시 그러한 예시에 포함된다. 자율 주행과 평행 주차 기능 역시 마찬가지다. AI가 인간의 생활 방식에 완벽하게 통합된다면, 이는 새로운 요리 레시피를 창조해내는 방향으로 흘러가지 않는 이상, 인간에게 유익하게 사용될 것이다. 

leekh@seminet.co.kr
(끝)
<저작권자(c) 반도체네트워크, 무단 전재-재배포 금지>

X


PDF 다운로드

개인정보보호법 제15조에 의한 수집/이용 동의 규정과 관련하여 아래와 같이 PDF 다운로드를 위한 개인정보 수집 및 이용에 동의하십니까? 동의를 거부할 수 있으며, 동의 거부 시 다운로드 하실 수 없습니다.

이메일을 입력하면,
(1) 신규참여자 : 성명/전화번호/회사명/분야를 입력할 수 있는 입력란이 나타납니다.
(2) 기참여자 : 이메일 입력만으로 다운로드가 가능합니다.

×

회원 정보 수정