반응형

 

AWS Machine Learning 관련 Product 들에 대한 간단한 이해를 하는데 도움이 될 것입니다.

https://aws.amazon.com/ko/products/

상기 페이지의 내용중 각 제품별 개요와 기능을 중심으로 정리한 내용임

범례

1.    - 순번 
Amazon SageMaker   -  제품명
Machine Learning 모델을 대규모로 구축, 교육 및 배포     -  간단 설명
https://aws.amazon.com/ko/sagemaker/?c=14&pt=1     - 제품 설명 페이지
Amazon SageMaker를 통해 데이터 사이언티스트와 개발자는....   - 개요 및 기능 설명

 



1. 
Amazon SageMaker   
Machine Learning 모델을 대규모로 구축, 교육 및 배포 
https://aws.amazon.com/ko/sagemaker/?c=14&pt=1

Amazon SageMaker를 통해 데이터 사이언티스트와 개발자는 ML을 위해 특별히 구축된 다양한 기능 세트를 함께 활용하여 고품질 기계 학습(ML) 모델을 빠르게 준비, 구축, 훈련 및 배포할 수 있습니다.

기능


준비

Data Wrangler
: 아래 별도 내용 있음

Feature Store
: Amazon SageMaker Feature Store는 ML(기계 학습) 피처를 저장, 업데이트, 검색 및 공유하기 위한 완전 관리형의 특수 목적용 리포지토리입니다.
피처는 예측을 수행하기 위해 훈련 및 추론 중에 사용하는 특성 또는 속성 모델입니다. 예를 들어, 음악 재생 목록을 추천하는 ML 애플리케이션에서, 피처에는 노래 등급, 이전에 들은 노래, 노래를 들은 시간의 길이 등이 포함될 수 있습니다. ML 모델의 정확도는 피처의 정확한 세트와 구성을 기반으로 합니다. 흔히, 이러한 피처는 여러 모델을 훈련하는 여러 팀에서 반복적으로 사용합니다. 그리고 모델 훈련에 사용된 피처 세트는 실시간 예측(추론)을 수행하는 데 사용할 수 있어야 합니다. 이러한 다양한 액세스 패턴에서 단일 피처 소스를 일관되게 그리고 최신 상태로 유지하는 것은 어려운 일입니다. 대부분의 조직이 두 개의 서로 다른 저장소를 갖고, 하나는 훈련용, 하나는 추론용으로 사용하기 때문입니다.
Amazon SageMaker Feature Store는 피처를 저장하고 액세스할 수 있는 특수 목적용 리포지토리이므로, 팀들이 이름을 지정하고 구성하고 재사용하기가 훨씬 쉽습니다. SageMaker Feature Store는 훈련 및 실시간 추론 중에 피처에 대한 통합 저장소를 제공하며, 추가 코드를 작성하거나 피처를 일관되게 유지하기 위해 수동 프로세스를 생성할 필요가 없습니다. SageMaker Feature Store는 저장된 피처의 메타데이터(예: 피처 이름 또는 버전 번호)를 추적하므로 대화형 쿼리 서비스인 Amazon Athena를 사용하여 일괄적으로 또는 실시간으로 올바른 특성을 위해 피처를 쿼리할 수 있습니다. 또한 SageMaker Feature Store는 피처를 계속 업데이트합니다. 훈련 및 추론 중에 모형에 대해 항상 사용 가능한 새 피처를 사용할 수 있도록, 추론 중에 새 데이터가 생성될 때 단일 리포지토리가 업데이트되기 때문입니다.

Ground Truth ( = Tagging,  labeling)
: Amazon SageMaker Ground Truth는 기계 학습을 위한 고도로 정확한 훈련 데이터 집합을 손쉽게 구축할 수 있게 해 주는 완전관리형 데이터 레이블링 서비스입니다. SageMaker Ground Truth 콘솔을 통해 사용자 지정 또는 기본 제공 데이터 레이블링 워크플로를 활용하여 데이터 레이블링을 몇 분 만에 시작하십시오. 이러한 워크플로는 3D 포인트 클라우드, 비디오, 이미지, 텍스트를 포함하여 다양한 사용 사례를 지원합니다. 레이블러는 워크플로의 일부로 자동 3D 입방체 스내핑(Cuboid Snapping), 2D 이미지 왜곡 제거, 자동 세그먼트 도구 같은 보조 레이블링 기능을 활용하여 데이터 세트 레이블링에 소요되는 시간을 줄일 수 있습니다. 또한 Ground Truth에서 제공되는 자동 데이터 레이블링 기능은 기계 학습 모형을 사용하여 데이터를 레이블링합니다.

Clarify (- 데이터 및 모델에서 바이어스 탐지)
: Amazon SageMaker Clarify는 기계 학습 개발자에게 훈련 데이터 및 모델에 대한 더 높은 가시성을 제공하여 바이어스를 식별 및 제한하고 예측을 설명할 수 있게 합니다.
바이어스는 연령 또는 소득 계층과 같은 다양한 그룹 전반에서 훈련 데이터 또는 모델의 예측 동작에 불균형이 존재함을 의미합니다. 바이어스는 모델 훈련에서 사용되는 데이터 또는 알고리즘으로 인해 발생할 수 있습니다. 예를 들어, 중년 개인에 대한 데이터를 기본으로 ML 모델을 훈련하는 경우 청년 및 고령층과 관련된 예측을 할 때 정확성이 떨어질 수 있습니다. 기계 학습 필드는 데이터 및 모델에서 바이어스를 감지 및 측정하여 해결할 수 있는 기회를 제공합니다. 그리고 모델의 해당 예측 이유를 설명하기 위해 모델 입력의 중요도를 살펴볼 수 있습니다.
Amazon SageMaker Clarify는 데이터 준비 작업 동안, 모델 훈련 직후 그리고 지정한 속성을 조사함으로써 배포된 모델에서 잠재적인 바이어스를 감지합니다. 예를 들어, 초기 데이터 세트와 훈련 모델에서 나이와 관련된 바이어스를 확인하고 다른 유형의 가능한 바이어스를 정량화한 상세 보고서를 받을 수 있습니다. SageMaker Clarify에는 모델 예측을 설명하는 데 도움이 되는 특성 중요도 그래프가 포함되어 있으며 내부 프레젠테이션을 지원하거나 수정 조치를 취할 수 있도록 모델의 문제점을 식별하는 데 사용할 수 있는 보고서를 생성합니다.


Build

Studio (= IDE)
: Amazon SageMaker Studio는 모든 ML 개발 단계를 수행할 수 있는 웹 기반의 단일 시각적 인터페이스를 제공하여, 데이터 사이언스 팀의 생산성을 10배까지 높입니다. SageMaker Studio는 모델을 구축, 훈련 및 배포하는 데 필요한 액세스 권한, 제어 및 가시성을 각 단계별로 완벽하게 제공합니다. 신속하게 데이터를 업로드하고, 새로운 노트북을 생성하며, 모델을 훈련 및 튜닝하고, 단계를 앞뒤로 이동하며 실험을 조정하고, 결과를 비교하며, 모델을 프로덕션에 배포하여 한 곳에서 생산성을 크게 높일 수 있습니다. 노트북, 실험 관리, 자동 모델 생성, 디버깅, 모델 및 데이터 드리프트 탐지를 포함한 모든 ML 개발 활동은 SageMaker Studio 내에서 수행할 수 있습니다.

Autopilot
: Amazon SageMaker Autopilot은 데이터에 기반해 최상의 기계 학습 모델을 자동으로 구축, 훈련 및 튜닝하는 동시에, 완전한 제어와 가시성을 유지 관리할 수 있습니다.
기계 학습(ML) 모델을 구축하려면 수동으로 피처를 준비하고 여러 알고리즘을 테스트하며 수백 개의 모델 파라미터를 최적화하여 데이터에 적합한 최상의 모델을 찾아야 합니다. 하지만 이 접근 방식에는 자세한 ML 전문 지식이 요구됩니다. 이러한 전문 지식이 없다면 자동화된 접근 방식(AutoML)을 사용할 수 있지만, 일반적으로 AutoML 접근 방식은 모델 예측에 대한 피처 영향은 거의 확인할 수 없습니다. 그 결과, 다시 생성할 수 없고 예측 방식을 학습할 수 없으므로 신뢰도가 떨어질 수밖에 없습니다.
Amazon SageMaker Autopilot은 ML 모델을 구축하는 과도한 부담을 없애주고, 데이터를 기반으로 최상의 ML 모델을 자동으로 구축, 훈련 및 튜닝시킬 수 있습니다. SageMaker Autopilot에서는 테이블 형식의 데이터 세트를 제공하고 예측할 대상 열을 선택하기만 하면 됩니다. 이때 데이터는 집 가격과 같은 숫자(회귀)이거나, 스팸인지 스팸이 아닌지와 같은 범주(분류)일 수 있습니다. SageMaker Autopilot은 여러 솔루션을 자동으로 탐색하여 최상의 모델을 찾습니다. 그러면 Amazon SageMaker Studio에서 한 번의 클릭으로 모델을 프로덕션에 직접 배포하거나 권장되는 솔루션에서 반복하여 모델 품질을 더 향상시킬 수 있습니다.

JumpStart ( = 미리 개발된 ML 모델 및 파이프라인 서비스)
: Amazon SageMaker JumpStart를 사용하면 기계 학습을 빠르고 쉽게 시작할 수 있습니다. 간편한 시작을 위해 SageMaker JumpStart는 몇 번의 클릭만으로 쉽게 배포할 수는 가장 공통적인 사용 사례용 솔루션 세트를 제공합니다. 솔루션은 완전히 사용자 지정할 수 있으며 AWS CloudFormation 템플릿과 참조 아키텍처 사용을 소개하므로 귀하의 ML 여정을 더욱 앞당길 수 있습니다. 또한 Amazon SageMaker JumpStart는 클릭 한 번으로 배포되고 자연어 처리, 객체 탐지 및 이미지 분류 모델과 같은 150개가 넘는 널리 사용되는 오픈 소스 모델에 대한 세분화된 튜닝도 지원합니다.


Train & Tune

Debugger
: Amazon SageMaker Debugger를 사용하면 회귀 중 데이터 손실 등의 훈련 메트릭을 실시간으로 캡처하고 이상이 감지될 때 알림을 전송하여 ML(기계 학습) 모델을 쉽게 최적화할 수 있습니다. 이렇게 하면 이미지의 잘못된 식별 등의 부정확한 모델 예측을 즉시 바로잡을 수 있습니다. SageMaker Debugger는 원하는 정확도에 도달하면 훈련 프로세스를 자동으로 중지하여 ML 모델의 훈련 시간과 비용을 줄여줍니다.

Distributed Training
: Amazon SageMaker는 대규모 딥 러닝 모형 및 데이터 집합을 훈련할 수 있는 가장 빠르고 가장 쉬운 방법을 제공합니다. 분할 알고리즘을 사용하는 SageMaker 분산 훈련 라이브러리는 수동 작업보다 훨씬 빠르게 대용량 딥 러닝 모형과 훈련 데이터 집합을 AWS GPU 인스턴스 간에 자동으로 분할합니다. SageMaker는 두 가지 기법, 즉 데이터 병렬 처리와 모형 병렬 처리로 이 같은 효율성을 실현합니다. 모델 병렬 처리는 훈련할 다중 GPU를 분산하기 전에 지나치게 큰 모델을 단일 GPU에 맞게 소규모로 분할합니다. 반면, 데이터 병렬 처리는 훈련과 동시에 대규모 데이터 세트를 분할하여 훈련 속도를 개선합니다.


Deploy & Manage

Pipelines
: Amazon SageMaker Pipelines는 ML(기계 학습)을 위한 최초의 사용하기 쉬운 특수 목적용 CI/CD(Continuous Integration and Continuous Delivery) 서비스입니다. SageMaker Pipelines를 사용하면 엔드 투 엔드 ML 워크플로를 규모에 맞게 생성, 자동화 및 관리할 수 있습니다.
기계 학습 프로세스의 각 단계에서 워크플로 오케스트레이션(예: 데이터 탐색 및 준비, 다양한 알고리즘과 파라미터 실험, 모델 훈련 및 튜닝, 프로덕션에 모델 배포)에는 몇 달의 코딩 시간이 걸릴 수 있습니다.
SageMaker Pipelines는 기계 학습을 위해 특별히 제작되어, 데이터 로드, 데이터 변환, 훈련 및 튜닝, 배포 등 ML 워크플로의 다양한 단계를 자동화하도록 도와줍니다. SageMaker Pipelines를 사용하면 일주일에 수십 개의 ML 모델을 구축하고 방대한 양의 데이터, 수천 개의 훈련 실험 및 수백 개의 다른 모델 버전을 관리할 수 있습니다. 워크플로를 공유하고 재사용하여 모형을 다시 생성하거나 최적화함으로써 조직 전체로 기계 학습을 확장할 수 있습니다.

모델 모니터
:Amazon SageMaker 모델 모니터는 프로덕션에 배포된 모델의 부정확한 예측을 자동으로 감지하고 알림을 보내 사용자가 우수한 품질의 ML(기계 학습) 모델을 유지관리할 수 있게 해줍니다.
ML 모델의 정확도는 시간이 지남에 따라 저하될 수 있으며, 이 현상을 모델 드리프트라고 합니다. 모델 피처 변경 등의 모델 드리프트를 유발할 수 있는 요소는 많습니다. ML 모델의 정확도는 개념 드리프트의 영향을 받을 수도 있습니다. 개념 드리프트는 모델 훈련에 사용되는 데이터와 추론 중 사용되는 데이터 간의 차이입니다.
Amazon SageMaker 모델 모니터는 실시간으로 모델 및 개념 드리프트를 감지하고 즉각적인 조치를 취할 수 있도록 알림을 보내, 고품질 ML 모델을 유지관리하도록 도와줍니다. 모델 및 개념 드리프트는 독립 변수와 종속 변수를 기반으로 모델의 품질을 모니터링함으로써 감지됩니다. 독립 변수(피처라고도 함)는 ML 모델에 대한 입력이고, 종속 변수는 모델의 출력입니다. 예를 들어, 은행 대출 승인을 예측하는 ML 모델에서 독립 변수는 신청자의 나이, 소득 및 신용 기록이 될 수 있고, 종속 변수는 대출 신청의 실제 결과가 됩니다. 또한 SageMaker 모델 모니터는 모델 성능 특성(예: 총 예측 수와 비교하여 정확한 예측 수를 측정하는 정확도)을 지속적으로 모니터링하므로, 이상을 해결하기 위한 조치를 취할 수 있습니다.
또한 SageMaker 모델 모니터는 Amazon SageMaker Clarify와 통합되어, 모델 바이어스 감지를 통해 ML 모델에서 잠재적 바이어스를 식별하도록 도와줍니다.

Kubernetes Integration
: Kubernetes는 컨테이너식 애플리케이션의 배포, 확장 및 관리를 자동화하기 위한 오픈 소스 시스템입니다. Kubeflow Pipelines는 Kubernetes 클러스터에서 ML(기계 학습) 워크플로를 관리하고 예약하는 인터페이스를 제공하는 워크플로 관리자입니다. 오픈 소스 도구를 사용하면 유연성과 표준화를 얻을 수 있지만, 인프라를 설정하고 데이터 사이언티스트를 위한 노트북 환경을 프로비저닝하고 최신 딥 러닝 프레임워크 버전으로 최신 상태를 유지하려면 시간과 노력이 필요합니다.
Amazon SageMaker Operators for Kubernetes 및 Components for Kubeflow Pipelines를 사용하면 Kubernetes 또는 Kubeflow의 기본적인 ML 워크플로 전반에서 완전 관리형 SageMaker 기계 학습 도구를 사용할 수 있습니다. 그러면 오케스트레이션 및 유연성에 대한 제어 능력을 유지하면서 Kubernetes 기반 ML 인프라를 수동으로 관리하고 최적화할 필요가 없어집니다.

Edge Manager ( 스마트 디바이스 전체에서 ML 모델을 효율적으로 관리 및 모니터링 = 에지 모델 관리 파이프라인)
: 산업 자동화, 자율 주행 차량, 자동 결제 등의 애플리케이션 수가 증가함에 따라, 새로운 데이터를 사용할 수 있을 때 실시간으로 예측할 수 있도록 엣지 디바이스에서 실행되는 ML(기계 학습) 모델이 필요합니다. Amazon SageMaker Neo는 엣지 디바이스용 ML 모델을 최적화하는 가장 쉬운 방법으로, 클라우드에서 ML 모델을 한 번 훈련하여 모든 디바이스에서 실행할 수 있게 해줍니다. 디바이스 수가 급격히 늘어남에 따라, 고객은 디바이스 전체에서 배포되어 실행되는 모델이 수천 개일 수 있습니다. Amazon SageMaker Edge Manager를 사용하면 스마트 카메라, 로봇, 개인용 컴퓨터, 모바일 디바이스 등 전체에서 ML 모델을 최적화, 보호, 모니터링 및 유지관리할 수 있습니다.

Neo (최대 25배 빠른 성능으로 어디에서나 ML 모델 실행 = 모델 최적화/경량화)
Amazon SageMaker Neo를 사용하면 개발자가 엣지에서 지원되는 디바이스 및 클라우드의 SageMaker에서 추론을 위해 기계 학습(ML) 모델을 최적화할 수 있습니다.
ML 추론은 훈련된 기계 학습 모델을 사용하여 예측하는 프로세스입니다. 높은 정확도를 위해 모델을 훈련한 후에 개발자는 높은 성능을 위해 모델을 튜닝하는 데 많은 시간과 노력을 들이곤 합니다. 클라우드에서 추론을 수행하는 경우 종종 개발자는 더 높은 처리량을 달성하기 위해 더 높은 비용을 들여 강력한 처리 기능과 많은 메모리를 제공하는 대규모 인스턴스에 의존합니다. 컴퓨팅 및 메모리가 제한된 엣지 디바이스에서 추론을 수행하는 경우 종종 개발자는 디바이스 하드웨어 제한 사항 내에서 허용 가능한 성능을 달성하기 위해 수개월에 걸쳐 수동으로 모델을 튜닝할 수도 있습니다.




2. 
Amazon Augmented AI
ML 예측의 인적 검토를 손쉽게 구현  (= 워크플로 통합)
https://aws.amazon.com/ko/augmented-ai/?c=14&pt=2
일부 기계 학습 애플리케이션에서는 중요한 데이터에 대한 정확성을 보장하고, 지속적인 개선을 제공하고, 업데이트된 예측으로 모델을 다시 훈련하기 위해 사람의 감시가 필요합니다. 그런데 이러한 상황에서 기계 학습 전용 시스템과 인간 전용 시스템 중 하나를 선택해야 하는 경우가 많습니다. 기업은 기계 학습 시스템을 워크플로에 통합하는 동시에 필요한 정밀도를 보장하기 위해 사람이 결과를 살펴보도록 함으로써 양쪽의 장점을 활용하고자 합니다.
Amazon Augmented AI는 인적 검토에 필요한 워크플로를 쉽게 구축할 수 있는 기계 학습 서비스입니다. Amazon A2I는 AWS에서 실행되든 아니든, 모든 개발자에게 인적 검토 시스템을 구축하거나 많은 수의 인적 검토자를 관리하는 것과 관련하여 획일적으로 발생하는 작업 부담을 덜어줍니다.




3. 
Amazon CodeGuru
가장 비경제적인 코드 줄 찾기 (= Code inspector)
https://aws.amazon.com/ko/codeguru/?c=14&pt=3
Amazon CodeGuru는 코드 품질을 높이고 애플리케이션에서 가장 비경제적인 코드 줄을 찾아낼 수 있도록 지원하는 지능형 권장 사항을 제공하는 개발자 도구입니다. CodeGuru를 기존 소프트웨어 개발 워크플로에 통합하면 애플리케이션 개발 중에 코드 검토를 자동화하고, 프로덕션에서 애플리케이션 성능을 지속적으로 모니터링하며, 코드 품질 및 애플리케이션 성능 개선을 위한 권장 사항과 시각적 단서를 제공하고, 전체 비용을 절감할 수 있습니다.
CodeGuru Reviewer는 기계 학습 및 자동화된 추론을 사용하여 애플리케이션 개발 중 심각한 문제, 보안 취약성 및 찾기 힘든 버그를 식별하고 코드 품질을 높일 수 있는 권장 사항을 제공합니다. 자세히 알아보기 »
CodeGuru Profiler를 사용하면 개발자가 애플리케이션의 가장 비경제적인 코드 줄을 파악하여 애플리케이션의 런타임 동작을 이해하고 코드가 비효율적인 부분을 파악해 제거하며, 성능을 개선하여 컴퓨팅 비용을 대폭 절감할 수 있습니다




4. 
Amazon Comprehend   
텍스트에서 통찰력 확보 및 관계 파악  (= NLP)
https://aws.amazon.com/ko/comprehend/?c=14&pt=4
Amazon Comprehend는 기계 학습을 사용하여 텍스트에서 통찰을 얻는 자연어 처리(NLP) 서비스입니다. 문서를 자세하게 확인하는 대신, 프로세스는 단순화되고 보이지 않는 정보를 더 쉽게 이해할 수 있습니다.
서비스는 언어, 사람 및 장소에 대한 참조를 포함하여 데이터에서 중요한 요소를 식별할 수 있으며 텍스트 파일은 관련 항목 별로 분류할 수 있습니다. 실시간으로 컨텐츠에서 고객의 감정을 자동으로 정확하게 감지할 수 있습니다. 이를 통해 보다 정보에 입각한 실시간 의사 결정을 신속하게 수행하여 고객 경험을 개선합니다. Comprehend는 개인 식별 가능 정보를 포함하는 컨텐츠를 찾을 뿐만 아니라 해당 컨텐츠를 수정하고 가립니다. Comprehend는 완벽하게 관리되므로 처음부터 모델을 교육하지 않고도 신속하게 실행하고 실행할 수 있습니다. 기계 학습의 강력한 기능을 활용하여 수 백만 개의 문서를 몇 분 만에 처리합니다.

장점
- 텍스트에서 중요한 통찰력 파악
Amazon Comprehend는 고객 지원 인시던트, 제품 리뷰, 소셜 미디어 피드, 뉴스 기사, 문서 및 기타 소스의 텍스트에서 의미와 관계를 찾을 수 있습니다. 예를 들어 고객이 제품에 만족하거나 만족하지 못할 때 가장 자주 언급되는 기능을 파악할 수 있습니다.
- 주제별 문서 구성
Amazon Comprehend는 문서에 사용자가 정의한 주제 또는 태그로 레이블을 지정하도록 훈련될 수 있습니다. 자연어 처리 기술을 사용하면 보다 정확한 문서 분류를 위해 키워드 검색 또는 규칙 기반 태그 지정 이상의 솔루션을 사용할 수 있습니다. 고객에게 맞춤형 컨텐츠를 제공하고 이러한 항목을 기반으로 보다 풍부한 탐색 기능을 제공합니다.
- 자체 데이터에 대한 훈련 모델
Amazon Comprehend는 특정 용어를 식별하는데 사용할 수도 있습니다. 분류 메시지 및 문서를 제품별 소셜 미디어 게시물과 같이 조직의 필요에 맞게 조정할 수 있습니다. 기계 학습 전문지식은 이 사용자 지정을 추가할 필요가 없습니다. 그것은 레이블과 각각의 작은 예제를 제공하는 것과 같이 간단합니다.
- 일반 및 업계 특정 텍스트 지원
최첨단 기계 학습 모델로 작동하는 Amazon Comprehend는 소셜 미디어 게시물, 이메일 및 웹 페이지와 같은 구조화되지 않은 텍스트에서 통찰력을 발견할 수 있습니다. Amazon Comprehend Medical은 다양한 소스(의사 노트 포함)에서 의약품 및 의료 조건과 같은 의료 정보를 식별하고 서로 간의 관계를 결정할 수 있습니다. 이는 추출된 용어를 의미 있게 만들기 위해 분석을 쉽게 하고 컨텍스트를 제공합니다.

기능

핵심 문구 추출
핵심 문구 추출 API는 핵심 문구 또는 논점과 이것이 핵심 문구임을 뒷받침하는 신뢰도 점수를 반환합니다.

감성 분석
감성 분석 API는 텍스트(긍정, 부정, 중립 또는 혼합)의 전체적인 감성을 반환합니다.

구문 분석
Amazon Comprehend 구문 API를 사용하는 고객은 토큰화 및 품사(PoS)를 사용하여 텍스트를 분석하고 텍스트 내에서 명사 및 형용사와 같은 단어 경계와 레이블을 식별할 수 있습니다.

엔터티 인식
엔터티 인식 API는 입력된 텍스트를 기반으로 자동 분류된 명명된 엔터티("사람", "장소", "위치" 등)를 반환합니다.

Comprehend Medical
의학적으로 명명된 엔터티 및 관계 추출(NERe)
의학적으로 명명된 개체 및 관계 추출(NERe) API는 약물, 건강 상태, 검사, 치료 및 절차(TTP), 해부학 및 보호된 건강 정보(PHI)와 같은 의료 정보를 반환합니다. 또한 추출된 약물 관련 하위 유형과 TTP 사이의 관계를 식별합니다. 개체 "특성"(부정 또는 진단이 증상이나 징후인 경우)으로 제공되는 컨텍스트 정보도 있습니다. 아래 표는 관련 하위 유형 및 개체 특성을 사용하여 추출한 정보를 보여줍니다.

PHI만 추출하려면 보호된 건강 정보 데이터 식별(PHId) API를 사용할 수 있습니다.

의료 온톨로지 연결
의료 온톨로지 연결 API는 의료 정보를 식별하고 표준 의료 종양학의 코드와 개념에 연결합니다. 질병은 InferICD10CM API를 통해 ICD-10-CM 코드에 연결되며(예: ‘두통’이 ‘R51’ 코드에 연결됨), 약물은 RxNorm 코드에 연결됩니다(‘아세트아미노핀/코데인’이 ‘C2341132’ cui에 연결됨). 또한, 의료 온톨로지 연결 API는 컨텍스트 정보를 엔터티 특성(예: 부정)으로 감지합니다.
사용자 지정 엔터티
사용자 지정 개체로 Amazon Comprehend를 사용자 지정하여 해당 도메인 특유의 용어를 찾아볼 수 있습니다. Comprehend는 AutoML을 통해 소량의 프라이빗 예제 인덱스(예: 정책 번호 및 정책 번호가 사용된 텍스트의 목록)에서 학습한 다음, 다른 모든 텍스트 블록에서 그 용어를 인식하도록 사용자 지정 프라이빗 모델을 훈련시킵니다. 서버를 관리할 필요도, 알고리즘을 숙지할 필요도 없습니다.

언어 감지
언어 감지 API는 100개 이상의 언어로 작성된 텍스트를 자동으로 식별하고, 언어의 우세함을 뒷받침하는 신뢰도 점수와 함께 우세 언어를 반환합니다.

Custom Classification
Custom Classification API를 사용하면 ML을 배우지 않고도 사업 고유의 레이블로 사용자 지정 텍스트 분류 모델을 손쉽게 빌드할 수 있습니다. 예를 들어 고객 지원 조직은 사용자 지정 분류 기능을 사용하여 고객이 문제를 어떻게 설명하는지에 따라 문제 유형별로 인바운드 요청을 자동으로 분류할 수 있습니다. 사용자 지정 모델을 만드는 것은 간단합니다. 사용하려는 각 레이블에 대한 텍스트 예제를 제공하면, Comprehend가 이를 교육하여 사용자 지정 모델을 생성합니다. 기계 학습 경험을 필요 없으며 코드를 전혀 사용하지 않고 사용자 지정 모델을 구축할 수 있습니다. 고객 분류자를 현재 애플리케이션에 통합할 수 있도록 SDK가 제공됩니다. 사용자 지정 모델을 사용하면 손쉽게 웹 사이트 댓글을 조정하고, 고객 피드백을 분류하고, 작업 그룹 문서를 정리할 수 있습니다. 자세한 내용은 이 설명서 페이지를 참조하십시오.

주제 모델링
주제 모델링은 Amazon S3에 저장된 문서 집합에서 관련 용어 또는 주제를 식별합니다. 집합에서 가장 공통적인 주제를 식별하고 이를 그룹으로 구성한 다음, 어떤 문서가 어떤 주제에 속하는지 매핑합니다.

다중 언어 지원
Amazon Comprehend는 영어, 프랑스어, 독일어, 이탈리아어, 포루투갈어 및 스페인어 텍스트에 대한 텍스트 분석을 수행할 수 있습니다. 따라서 여러 언어로 된 텍스트를 인식하고 Amazon Translate를 통해 텍스트를 영어, 프랑스어, 독일어, 이탈리아어, 포루투갈어 및 스페인어로 변환한 다음 Amazon Comprehend를 사용해 텍스트를 분석할 수 있는 애플리케이션을 만들 수 있습니다.




5. 
Amazon DevOps Guru
ML 기반 클라우드 운영 서비스 
https://aws.amazon.com/ko/devops-guru/
Amazon DevOps Guru는 기계 학습(ML) 기반 서비스로서 애플리케이션의 운영 성능 및 가용성을 쉽게 개선할 수 있습니다. DevOps Guru는 정상적인 운영 패턴에서 벗어나는 동작을 탐지하므로 고객에게 영향을 미치기 훨씬 전에 운영 문제를 확인할 수 있습니다.

DevOps Guru는 오랫동안 Amazon.com 및 AWS 운영 우수성을 기반으로 축적된 기계 학습 모델을 사용함으로써 비정상적인 애플리케이션 동작(예: 지연 시간, 오류율, 리소스 제약 등의 증가)을 식별하고 가동 중단 또는 서비스 중단을 유발할 수 있는 중요한 문제를 탐지할 수 있습니다. DevOps Guru가 중요한 문제를 식별하면 자동으로 알림을 발송하면서 관련 이상 현상, 가능한 근본 원인 및 문제가 발생한 시기 및 위치에 대한 컨텍스트를 요약하여 제공합니다. DevOps Guru는 또한 가능한 경우에 문제를 해결하는 방법에 대한 권장 사항도 제공합니다.

DevOps Guru는 AWS 애플리케이션에서 운영 데이터를 자동으로 수집하며, 운영 데이터의 문제를 시각화할 수 있는 단일 대시보드를 제공합니다. CloudFormation 스택 또는 AWS 계정에서 적용 범위를 선택하여 DevOps Guru를 시작하면 수동 설정이나 기계 학습 전문 지식이 없어도 애플리케이션 가용성 및 신뢰성을 개선할 수 있습니다.




6. 
Amazon Elastic Inference
딥 러닝 추론 가속화 
https://aws.amazon.com/ko/elastic-inference/?c=14&pt=5
Amazon Elastic Inference를 이용하면 Amazon EC2 및 Sagemaker 인스턴스 또는 Amazon ECS 작업에 낮은 비용의 GPU 지원 가속을 연결해 딥 러닝 추론 비용을 최대 75% 절감할 수 있습니다. Amazon Elastic Inference는 TensorFlow, Apache MXNet, PyTorch 및 ONNX 모델을 지원합니다.
추론은 훈련된 모델을 사용하여 예측하는 프로세스입니다. 딥 러닝 애플리케이션에서 추론은 두 가지 이유로 인해 총 운영 비용에서 최대 90%를 차지합니다. 첫째, 독립형 GPU 인스턴스는 일반적으로 추론이 아닌 모델 훈련을 위해 설계되었습니다. 훈련 작업은 수백 개의 데이터 샘플을 병렬로 배치 처리하지만, 일반적으로 추론 작업은 소량의 GPU 컴퓨팅을 사용하는 단일 입력을 실시간으로 처리합니다. 이로 인해 독립형 GPU 추론 비용의 효율성이 저하됩니다. 반면 독립형 CPU 인스턴스는 매트릭스 작업에 특화되지 않아 종종 딥 러닝 추론에 사용하기에는 실행 속도가 너무 느려집니다. 둘째, 다른 모델에는 다른 CPU, GPU 및 메모리가 필요합니다. 한 리소스를 최적화하면 다른 리소스의 활용이 미흡해지고 비용이 상승할 수 있습니다.
Amazon Elastic Inference는 코드 변경 없이 매우 적절한 양의 GPU 지원 추론 가속을 EC2 또는 SageMaker 인스턴스 유형 또는 ECS 작업에 연결하여 이러한 문제를 해결합니다. Amazon Elastic Inference를 사용하면 애플리케이션의 전체 컴퓨팅 및 메모리 요구 사항에 가장 적합한 AWS의 모든 CPU 인스턴스를 선택한 후 리소스를 효율적으로 사용하고 비용을 절감하는 데 도움이 되는 양의 GPU 기반 추론 가속을 별도로 구성할 수 있습니다.




7. 
Amazon Forecast   
기계 학습을 사용하여 예측 정확도 개선 
https://aws.amazon.com/ko/forecast/?c=14&pt=6
Amazon Forecast는 매우 정확한 예측을 위해 기계 학습을 사용하는 완전관리형 서비스입니다.
오늘날 기업에서는 제품 수요, 리소스 요구량 또는 금융 실적 등의 향후 비즈니스 성과를 정확하게 예측하기 위해 간단한 스프레드시트에서 복잡한 금융 계획 소프트웨어에 이르기까지 모든 도구를 사용하고 있습니다. 이러한 도구는 시계열 데이터라는 일련의 기록 데이터를 확인하는 방식으로 예측을 만들어냅니다. 예를 들어 이러한 도구는 향후의 상황이 이전 데이터를 기준으로 결정된다는 가정에 근거해, 이전 판매 데이터를 확인하는 것만으로 향후 레인코트의 판매량을 예측해 볼 수 있습니다. 하지만 이 접근 방식에서는 추세가 불규칙한 대규모 데이터 세트를 사용하는 경우 예측을 정확하게 내놓기가 어려울 수 있습니다. 또한 가격, 할인, 웹 트래픽, 직원 수 등 시간에 따라 변하는 데이터 계열은 제품 기능 및 스토어 위치 등 연관된 독립 변수와 쉽게 결합할 수 없습니다.
Amazon Forecast는 Amazon.com에서 사용하는 것과 동일한 기술을 기반으로, 기계 학습을 통해 시계열 데이터를 추가 변수와 결합하여 예측을 만들어냅니다. Amazon Forecast는 기계 학습 경험이 없어도 시작 가능합니다. 기록 데이터와 예측에 영향을 줄 수 있는 추가 데이터만 제공하면 됩니다. 예를 들어 특정 셔츠 색상의 수요는 계절과 스토어 위치에 따라 달라질 수 있습니다. 이처럼 복잡한 관계는 그 자체만으로는 확인하기 어렵지만 기계 학습은 해당 관계를 인식하는 데 적합합니다. 데이터를 제공하면 Amazon Forecast에서 데이터를 자동으로 검사해 의미 있는 내용을 식별한 후 시계열 데이터만 확인하는 방식에 비해 최대 50% 더 정확히 예측하는 예측 모델을 생성합니다.
Amazon Forecast는 완전관리형 서비스이므로 서버를 프로비저닝하거나 기계 학습 모델을 구축, 교육 또는 배포할 필요가 없습니다. 사용한 만큼만 비용을 지불하면 되고, 최소 요금 및 사전 약정은 없습니다.




8. 
Amazon Fraud Detector
더 빠르게 더 많은 온라인 사기 감지 
https://aws.amazon.com/ko/fraud-detector/?c=14&pt=7
매년 전 세계적으로 기관들은 온라인 사기로 수백억 달러의 피해를 입습니다. Amazon Fraud Detector는 기계 학습(ML)과 20년 이상 축적된 Amazon의 부정행위 탐지 전문 지식을 활용하여 잠재적인 사기 활동을 식별하는 완전관리형 서비스로, 고객들이 더욱 빠르게 온라인 사기를 찾아낼 수 있도록 합니다. Amazon Fraud Detector는 부정행위 탐지 기계 학습 모델을 구축, 학습 및 배포 사용했던 오래 걸리고 광범위한 단계를 자동화하여 고객이 쉽게 사용할 수 있도록 했습니다. Amazon Fraud Detector는 생성하는 각 모델을 고객의 데이터 세트에 맞게 설정하고 기존의 일률적인 모든 ML 솔루션 대비 모델의 정확도를 높였습니다. 사용한 만큼만 요금을 지불하면 되기 때문에 거액의 선불 요금을 지출하지 않아도 됩니다.

기능

미리 작성된 모델 템플릿
규칙에 띠라 작업 트리거
실시간 부정 행위 예측 API
예측 및 탐지 로직을 검토하고 감사하는 단일 인터페이스
Amazon SageMaker 통합





9. 
Amazon Healthlake
건강 데이터 분석 
https://aws.amazon.com/ko/healthlake/?c=14&pt=8a

개요:
Extract meaning from unstructured data with natural language processing (NLP) for easy search and querying.
Make predictions with health data using Amazon SageMaker machine learning (ML) models and Amazon QuickSight analytics.
Create a complete and chronological view of patient health data including prescriptions, procedures, and diagnoses.
Support interoperable standards such as the Fast Healthcare Interoperability Resources (FHIR) format.

기능
Import: Quickly & easily ingest health data
Store: Store health data in a secure, compliant, & auditable manner
Transform: Transform unstructured medical data using NLP
Query: Powerful query & search capabilities
Analyze: Identify trends & make predictions




10. 
Amazon Kendra     
ML로 엔터프라이즈 검색 혁신 
https://aws.amazon.com/ko/kendra/?c=14&pt=8
Amazon Kendra는 기계 학습을 통해 제공되는 지능형 검색 서비스입니다. Kendra는 웹사이트 및 애플리케이션에 대한 엔터프라이즈 검색을 재정립하는 서비스로, 원하는 콘텐츠가 여러 위치와 조직 내의 콘텐츠 리포지토리에 분산되어 있는 경우에도 직원과 고객이 이를 손쉽게 찾을 수 있게 해 줍니다.

Amazon Kendra를 사용하면 구조화되지 않은 소중한 데이터를 검색하는 대신, 필요한 시기에 질문에 대한 올바른 답변을 확인할 수 있습니다. Amazon Kendra는 완전관리형 서비스이므로 서버를 프로비저닝하거나 기계 학습 모델을 구축, 훈련 또는 배포할 필요가 없습니다.


기능

지능형 검색
Amazon Kendra는 기계 학습을 사용하여 비구조화된 데이터에서 보다 적절한 답을 제공합니다. "건강 보험" 같은 일반적 키워드를 검색하거나 "출산휴가 기간은 얼마나 돼?” 같은 자연 언어 질문을 하고 Kendra는 독해력을 사용하여 "14주” 등의 명확한 답을 제공할 것입니다. “VPN을 어떻게 구성하지?” 같은 보다 일반적인 질문에 대해 Kendra는 가장 적절한 텍스트 구절을 추출하여 설명적 답변을 제공합니다.
Amazon Kendra는 또한 FAQ 매칭을 지원하며 특수 모델을 사용하여 FAQ에서 가장 근접한 질문을 정확히 찾아내어 그에 상응하는 답변을 돌려줍니다.
추출 답변 및 FAQ 매칭을 보완하기 위해 Amazon Kendra는 딥 러닝 시멘틱 검색 모델을 사용해 정확한 문서 순위를 매깁니다. 전체적으로 이 기술은 보다 풍부한 검색 경험을 제공하며, 사용자에게 특정 답변은 물론 더 많은 정보를 탐색해야 하는 관련 콘텐츠를 보여줍니다.

증분 학습
Amazon Kendra는 기계 학습을 사용하여 최종 사용자 검색 패턴과 피드백을 기반으로 검색 결과를 지속적으로 최적화합니다. 예를 들어, 사용자가 "의료 보험을 어떻게 변경하나요?"를 검색하면 여러 HR 보험 문서가 최상단의 위치에서 경쟁하게 됩니다. 이 질문에 가장 관련 있는 문서를 결정하기 위해 Amazon Kendra는 사용자 상호작용 및 피드백에서 학습하여 선호 문서를 목록 상위로 올립니다. Amazon Kendra는 기계 학습 전문성을 필요로 하지 않고 자동으로 증분 학습 기술을 적용합니다.
조정 및 정확성
즉시 사용할 수 있는 최첨단 정확성을 제공할 뿐만 아니라, 고객은 검색 결과를 미세하게 조정하여 특정 비즈니스 목표에 따라 결과에 대한 구체적 답변 및 문서를 보다 향상시킬 수 있습니다. 예를 들어 관련성 조정을 통해 보다 신뢰할 수 있는 데이터 원본, 작가, 또는 문서의 갱신 정도에 따라 결과를 향상시킬 수 있습니다. 더 많은 정보는 관련 조정 블로그 포스트를 참조하십시오.
특정 비즈니스 어휘에 대한 Amazon Kendra의 이해도를 높이기 위해 Amazon Kendra의 사용자 지정 동의어를 제공할 수 있습니다. Amazon Kendra는 이 자료를 사용하여 확장 어휘에 해당하는 콘텐츠 및 답을 포함하는 쿼리를 자동으로 확장합니다. 예를 들어 최종 사용자가 “HSA가 뭐야?”라는 질문을 물었을 때 Amazon Kendra는 “Health Savings Account” 또는 “HSA”를 언급한 문서를 돌려줄 수 있습니다.

커넥터
커넥터를 사용하면 빠르고 쉽게 Amazon Kendra 인덱스에 데이터 원본을 추가하고 커넥터 유형을 선택할 수 있습니다. 커넥터는 인덱스를 데이터 원본과 자동으로 동기화하도록 예약하여 항상 최신 콘텐츠를 안전하게 검색할 수 있습니다. Amazon Kendra는 S3, SharePoint, Salesforce, ServiceNow, Google Drive, Confluence, 그 외에도 많은 유명 데이터 원본에 대한 자연 커넥터를 제공합니다. 자연 커넥터를 사용할 수 없다면 Amazon Kendra는 사용자 지정 데이터 원본 커넥터 및 여러 파트너 지원 커넥터를 제공합니다. Amazon Kendra 커넥터 가용성에 대한 더 많은 정보는 Amazon Kendra connector library를 참조하십시오.

도메인 최적화
Kendra는 딥 러닝 모델을 사용하여 HR, 운영, 지원 및 R&D와 같은 광범위한 내부 사용 사례에 대한 자연어 쿼리를 이해하고 콘텐츠 및 구조를 문서화합니다. Kendra는 또한 IT, 금융 서비스, 보험, 제약, 공업 제조, 석유 및 가스, 법률, 미디어 및 엔터테인먼트, 여행 및 접객, 보건, HR, 뉴스, 통신, 광업, 식음료 및 자동차와 같은 영역의 복잡한 언어를 이해하도록 최적화되었습니다. 예를 들어, HR 답변을 검색하는 사용자는 ‘HSA 양식 제출 마감일’을 입력할 수 있으며, Kendra는 가장 정확한 답변을 얻기 위해 더 넓은 범위의 적용 범위에서 "건강 저축성 계좌 양식 제출 마감일"을 검색할 수도 있습니다.

자동 완성 쿼리
Amazon Kendra에는 최종 사용자의 검색 쿼리를 자동으로 완성하는 기능이 포함되어 있습니다. 자동 완성 쿼리는 사용자가 입력하는 글자 수를 약 25%가량 줄여줄 뿐만 아니라, 사용자들을 보다 정확하고 자주 묻는 질문으로 유도하는 데에도 도움이 됩니다. 더욱 정확한 질문은 일반적으로 더 관련성이 있고 유용한 답변을 끌어내게 됩니다. 예를 들어 검색 상자에 "어디에"를 입력하기 시작하면 Kendra는 "어디에 IT 데스크가 있나요?" 또는 "어디에 식당이 있나요?"와 같은 일반적으로 관련된 여러 가지 질문을 제안하여 쿼리를 완료할 수 있습니다.

분석 및 지속적인 개선 제공 예정
지속해서 개선되는 검색 환경을 제공하기 위해 Amazon Kendra는 검색 중에 활동을 포착하고(클릭, 좋아요 또는 싫어요) 개선을 위한 조치를 할 수 있도록 지표 및 통찰력을 제공합니다. Kendra는 상위 쿼리, 상위 문서 및 일일 쿼리와 같은 기본 운영 지표를 제공합니다. Kendra는 또한 MRR(Mean Reciprocal Rank)과 같은 일반적인 품질 지표와 명시적 피드백(예: 좋아요 또는 싫어요 횟수)을 제공합니다. 이 정보를 사용하여 더욱 관련성 있는 FAQ를 작성하거나, 특정 데이터 원본을 좀 더 신뢰할 수 있는 콘텐츠로 개선하거나, 자주 묻는 질문에 대해서 고객 지원팀을 교육할 수 있습니다.






11. 
Amazon Lex (ASR, NLU)
음성 및 텍스트 챗봇 구축 
https://aws.amazon.com/ko/lex/?c=14&pt=9

Amazon Lex는 음성과 텍스트를 사용하는 애플리케이션에 대화형 인터페이스를 구축하는 서비스입니다. Amazon Lex는 음성을 텍스트로 변환하는 자동 음성 인식(ASR)과 텍스트의 의도를 이해하는 자연어 처리(NLU)라는 첨단 딥 러닝 기능을 제공하므로, 상당히 매력적인 사용자 경험과 생생한 대화형 인터페이스를 갖춘 애플리케이션을 구축할 수 있습니다. Amazon Lex에서는 Amazon Alexa에서 사용되는 것과 동일한 딥 러닝 기술을 모든 개발자에게 제공하므로 정교한 자연어 대화형 봇("챗봇")을 쉽고 빠르게 구축할 수 있습니다.
Amazon Lex로 봇을 구축해서 콜 센터 생산성을 높이고, 단순 작업을 자동화하고, 기업 전체적인 운영 효율을 향상할 수 있습니다. 완전관리형 서비스인 Amazon Lex는 자동으로 확장되므로 인프라 관리에 대해 걱정할 필요가 없습니다.


작동 방식
Alexa에서 사용되는 것과 동일한 기술을 사용하는 Amazon Lex는 사용이 간편한 완전관리형 서비스를 통해 음성 인식 및 언어 처리와 같이 어려운 딥 러닝 문제를 해결할 수 있는 도구를 제공합니다. Amazon Lex는 AWS Lambda와 통합되므로 백엔드 비즈니스 로직을 실행하도록 함수를 손쉽게 트리거하여 데이터 검색 및 업데이트를 수행할 수 있습니다. 구축이 완료되면 봇을 채팅 플랫폼, 모바일 클라이언트 및 IoT 디바이스에 직접 배포할 수 있습니다. 또한, 제공된 보고서를 사용하여 봇에 대한 지표를 추적할 수 있습니다. Amazon Lex는 봇을 구축, 게시 및 모니터링할 수 있는 확장 가능하고 안전하며 사용이 간편한 엔드 투 엔드 솔루션을 제공합니다.

Diagrams_lex_bookhotel


주요 기능

자연스러운 대화
고품질 음성 인식 및 자연어 처리
Amazon Lex는 음성 언어 처리 시스템을 생성할 수 있는 자동 음성 인식 및 자연어 처리 기술을 제공합니다. Amazon Lex는 Alexa에 사용되는 것과 동일한 입증된 기술을 사용합니다. Amazon Lex는 개발자가 제공한 몇 가지 샘플 표현을 바탕으로 사용자가 의도를 표현하는 다양한 방법을 학습할 수 있습니다. 음성 언어 처리 시스템은 자연어 음성과 텍스트 입력을 받아서, 입력 뒤에 숨겨진 의도를 파악하고, 적절한 응답을 호출하여 사용자 의도를 이행합니다.

컨텍스트 관리
대화가 전개되는 동안 표현을 정확하게 분류할 수 있으려면 연속적인 대화 전반에서 컨텍스트를 관리해야 합니다. Amazon Lex는 컨텍스트 관리를 기본적으로 지원하므로 사용자는 사용자 지정 코드 없이 직접 컨텍스트를 관리할 수 있습니다. 초기 전제 의도를 충족하면 “컨텍스트”를 생성하여 관련 의도를 호출할 수 있습니다. 이는 봇 설계를 단순화하고 대화 관련 경험 생성을 촉진합니다.

8kHz 전화 오디오 지원
Amazon Lex 음성 인식 엔진은 전화 오디오(8kHz 샘플링 주기)를 사용해 훈련되었기 때문에 전화 사용 사례에서 향상된 음성 인식 정확도를 제공합니다. Amazon Lex로 대화 봇을 구축할 때 8kHz 지원을 사용하면 콜 센터 애플리케이션 또는 헬프 데스크와 같은 전화 음성 상호 작용에서 더 높은 품질을 제공할 수 있습니다.

연속 대화
Amazon Lex 봇은 연속적인 대화를 주고받을 수 있는 기능을 제공합니다. 의도가 파악되면 해당 의도를 이행하는 데 필요한 정보가 사용자에게 표시됩니다(예를 들어 "호텔 예약"이 의도인 경우 위치, 체크인 날짜, 숙박 일수 등이 사용자에게 표시됩니다). Amazon Lex는 챗봇에 연속 대화를 구축할 수 있는 간편한 방법을 제공합니다. 봇 사용자로부터 수집하려는 슬롯/파라미터와 이에 상응하는 메시지를 나열하기만 하면 Amazon Lex에서 적절한 슬롯을 표시하여 대화를 오케스트레이션합니다.


빌더 생산성

강력한 수명 주기 관리 기능
Amazon Lex를 사용하면 생성하는 의도, 슬롯 유형 및 봇에 버전 관리를 적용할 수 있습니다. 버전 관리 및 롤백 메커니즘 구현을 사용하면 다중 개발자 환경에서 테스트하고 배포할 때 손쉽게 코드를 유지 관리할 수 있습니다. 예를 들어 Amazon Lex 봇에 "프로덕션", "개발" 및 "테스트"와 같은 여러 개의 별칭을 생성하고 각 봇에 서로 다른 버전을 연결할 수 있습니다. 이렇게 하면 봇을 지속적으로 개선 및 변경하고 하나의 별칭으로 새 버전을 릴리스할 수 있으므로 봇의 새 버전을 배포할 때 모든 클라이언트를 업데이트할 필요가 없습니다.

클릭 한 번으로 여러 플랫폼에 배포
Amazon Lex를 사용하면 간단하게 Amazon Lex 콘솔에서 직접 채팅 서비스에 봇을 게시할 수 있으므로 다중 플랫폼 개발 작업이 줄어듭니다. 풍부한 서식 기능은 Facebook Messenger, Slack 및 Twilio SMS와 같은 채팅 플랫폼에 맞게 구성된 직관적인 사용자 환경을 제공합니다.

향상된 콘솔 경험
Lex V2 콘솔을 사용하여 대화형 경험을 손쉽게 구축, 배포 및 관리할 수 있습니다. Lex V2에서는 새 언어를 언제든지 봇에 추가하고 설계, 테스트 및 배포 수명 주기를 통해 모든 언어를 단일 리소스로 관리할 수 있습니다. 단순한 정보 아키텍처를 통해 봇 버전을 효율적으로 관리할 수 있습니다. ‘대화 흐름’, 부분적으로 구성된 봇 저장 및 표현의 대량 업로드와 같은 기능은 이 프로세스를 간소화하고 더 많은 유연성을 제공합니다.

스트리밍 대화
자연스러운 대화는 그 중간에 휴지와 중단이 발생합니다. 예를 들어 전화를 건 사람은 대화를 잠시 멈추거나 전화를 끊지 않고 기다릴 것을 요청한 다음 결제를 위한 신용 카드 정보를 찾는 등 질문에 답하는 데 필요한 정보를 찾을 수 있습니다. 스트리밍 대화 API를 사용하면 대화를 잠시 멈추고 봇을 구성하면서 중단을 직접 처리할 수 있습니다. 가상 콜 센터 상담원 또는 스마트 어시스턴트의 대화 기능을 빠르게 개선할 수 있습니다.


AWS 서비스 통합

Amazon Kendra와 통합
고객 서비스 대화는 종종 특정 질문에 답하기 위한 특정 정보를 찾는 것과 관련됩니다. Amazon Kendra는 매우 정확하고 사용하기 쉬운 기계 학습 기반 지능형 검색 서비스입니다. Kendra 검색 의도를 추가하면 구조화되지 않은 설명서 및 FAQ에서 가장 정확한 답변을 찾을 수 있습니다. 봇을 정의할 때 의도의 검색 인덱스 파라미터를 간편하게 정의하여 봇의 정보 제공 기능을 확장할 수 있습니다.

Amazon Polly와 통합
Amazon Polly는 텍스트를 생생한 음성으로 변환하는 서비스로서 이를 사용하면 말을 하는 애플리케이션을 만들고 전혀 새로운 유형의 음성 지원 제품을 개발할 수 있습니다. Polly를 사용하면 사용자와의 음성 상호 작용에서 응답할 수 있습니다. Amazon Polly는 표준 TTS 음성 외에도, 새로운 기계 학습 방식을 통해 말하기 품질을 더욱 높이는 NTTS(신경망 텍스트 음성 변환) 음성을 제공합니다.

AWS Lambda와 통합
Amazon Lex는 데이터 검색, 업데이트 및 비즈니스 로직 실행을 위해 AWS Lambda와의 통합을 기본적으로 지원합니다. 이 서버리스 컴퓨팅 파워를 사용하면 봇 개발에 집중하면서 힘들이지 않고 대규모로 비즈니스 로직을 실행할 수 있습니다. Lambda에서 AWS Lambda를 사용하여 기존 엔터프라이즈 애플리케이션 및 데이터베이스와 손쉽게 통합할 수도 있습니다. 통합 코드를 작성하기만 하면 외부 시스템에서 데이터를 전송 또는 검색해야 할 때 AWS Lambda에서 코드를 자동으로 실행합니다. 대화 상태 유지를 위해 Amazon DynamoDB에 액세스하고 최종 사용자에게 알리기 위해 Amazon SNS에 액세스하는 등 다양한 AWS 서비스에 액세스할 수 있습니다.
콜 센터 통합

Amazon Connect와 통합
Amazon Lex는 AWS의 클라우드 기반 콜 센터인 Amazon Connect와 기본적으로 통합되므로 개발자는 전화로 고객 문의를 처리할 수 있는 음성 기반 대화 봇을 개발할 수 있습니다. API를 사용하면 어떤 콜 센터 애플리케이션에도 Amazon Lex를 통합할 수 있습니다.

AWS Contact Center Intelligence(CCI) 통합
Amazon Lex는 다수의 AWS CCI 파트너와 통합되므로 셀프 서비스 고객 서비스 가상 상담원, 정보 제공 봇 또는 애플리케이션 봇을 원활하게 생성할 수 있습니다. Amazon Lex 파트너로는 Genesys, 8x8, Xapp.ai, Clevy, Inference, UIPath 및 VoiceWorx.ai가 있습니다. 자세히 알아보려면 AWS CCI 및 AWS CCI 파트너 페이지를 방문하세요.






12. 
Amazon Lookout for Equipment
센서 데이터를 분석하여 비정상적인 동작 감지 
https://aws.amazon.com/ko/lookout-for-equipment/
예측 유지 관리를 성공적으로 구현하려면 고유한 작동 조건의 모든 기계 센서에서 수집된 특정 데이터를 기계 학습(ML)에 적용하여 매우 정확한 예측을 수행해야 합니다. 그러나 장비에 맞는 기계 학습 솔루션을 구현하려면 어렵고 시간이 오래 걸릴 수 있습니다.

Amazon Lookout for Equipment는 장비에 장착된 센서의 데이터(예: 발전기 압력, 압축기의 유량, 분당 팬 회전 수)를 분석하여 기계 학습에 관한 전문 지식이 없어도 데이터만을 기반으로 하여 장비를 위해 기계 학습 모델을 자동으로 훈련할 수 있습니다. Lookout for Equipment는 자체적인 고유의 기계 학습 모델을 사용하여 입력되는 센서 데이터를 실시간으로 분석하고 기계 고장을 유발할 수 있는 조기 경고 신호를 정확하게 식별합니다. 즉, 장비 이상을 빠르고 정확하게 감지하고, 신속하게 문제를 진단하며, 비용이 많이 드는 가동 중단을 줄이고, 오경보를 줄일 수 있습니다.





13. 
Amazon Lookout for Metrics
지표에서 이상 탐지 
https://aws.amazon.com/ko/lookout-for-metrics/
Amazon Lookout for Metrics는 기계 학습(ML)을 사용하여 영업 수익 또는 고객 유치율의 급격한 하락과 같은 비즈니스 및 운영 데이터의 이상(즉, 기준의 아웃라이어)을 자동으로 탐지하고 진단합니다. 클릭 몇 번으로 Amazon Lookout for Metrics를 Amazon S3, Amazon Redshift, 및 Amazon Relational Database Service(RDS)와 같은 주요 데이터 스토어를 Salesforce, Servicenow, Zendesk 및 Marketo와 같은 타사 SaaS 애플리케이션에 연결하고 비즈니스에 중요한 지표의 모니터링을 시작할 수 있습니다. Amazon Lookout for Metrics는 이러한 원본의 데이터를 자동으로 검사하고 준비한 다음 기존의 이상 탐지 방법보다 빠르고 정확하게 이상을 탐지합니다. 탐지된 이상에 대한 피드백을 제공하여 결과를 조정하고 정확도를 지속적으로 개선할 수도 있습니다. Amazon Lookout for Metrics는 동일한 이벤트와 관련된 이상을 하나로 그룹화하고 잠재적 근본 원인의 요약이 포함된 알림을 전송하므로 탐지된 이상을 손쉽게 진단할 수 있습니다. 또한 심각도 순으로 이상 순위가 지정되므로 비즈니스에 가장 중요한 항목에 주의를 집중할 수 있습니다.




14. 
Amazon Lookout for Vision
컴퓨터 비전을 사용하여 제품 결함 포착 
https://aws.amazon.com/ko/lookout-for-vision/
Amazon Lookout for Vision은 컴퓨터 비전(CV)을 사용한 시각적 표현에서 결함 및 이상을 찾는 기계 학습(ML) 서비스입니다. 제조업에서는 Amazon Lookout for Vision으로 대규모 객체 이미지에서 차이를 빠르게 식별하여 품질을 개선하고 운영 비용을 줄일 수 있습니다. 예를 들어 Amazon Lookout for Vision은 제품의 누락된 부품, 차량 또는 구조물에 대한 손상, 생산 라인의 변칙, 실리콘 웨이퍼의 미세 결함 및 기타 유사한 문제를 식별하는 데 사용될 수 있습니다. Amazon Lookout for Vision은 ML을 사용하여 모든 카메라의 이미지를 사람이 하듯이 보고 이해하지만 정확도와 규모는 사람보다 훨씬 더 높고 큽니다. Amazon Lookout for Vision을 사용하면 비용이 많이 들고 일관되지 않은 수동 검사의 필요성을 없앨 수 있을 뿐 아니라 품질 제어, 결함 및 손상 평가와 규정 준수가 개선됩니다. 몇 분이면 Amazon Lookout for Vision을 사용하여 이미지 및 객체 검사를 자동화할 수 있습니다. 기계 학습 전문 지식은 필요하지 않습니다.




15. 
Amazon Monitron
장비 모니터링을 위한 포괄적 시스템 
https://aws.amazon.com/ko/monitron/
Amazon Monitron is an end-to-end system that uses machine learning (ML) to detect abnormal behavior in industrial machinery, enabling you to implement predictive maintenance and reduce unplanned downtime.

Installing sensors and the necessary infrastructure for data connectivity, storage, analytics, and alerting are foundational elements for enabling predictive maintenance. However, in order to make it work, companies have historically needed skilled technicians and data scientists to piece together a complex solution from scratch. This included identifying and procuring the right type of sensors for their use cases and connecting them together with an IoT gateway (a device that aggregates and transmits data). As a result, few companies have been able to successfully implement predictive maintenance.

Amazon Monitron includes sensors to capture vibration and temperature data from equipment, a gateway device to securely transfer data to AWS, the Amazon Monitron service that analyzes the data for abnormal machine patterns using machine learning, and a companion mobile app to set up the devices and receive reports on operating behavior and alerts to potential failures in your machinery. You can start monitoring equipment health in minutes without any development work or ML experience required, and enable predictive maintenance with the same technology used to monitor equipment in Amazon Fulfillment Centers.





16. 
Amazon Personalize   
애플리케이션에 실시간 추천 기능 구축 
https://aws.amazon.com/ko/personalize/?c=14&pt=10

Amazon Personalize를 사용하는 개발자는 Amazon.com에서 실시간 맞춤화 추천에 사용하는 것과 동일한 기계 학습(ML) 기술로 애플리케이션을 구축할 수 있습니다. ML 전문 지식이 필요하지 않습니다.
Amazon Personalize를 통해 개발자는 특정 제품 추천, 맞춤화된 제품 순위 재지정, 맞춤화된 직접 마케팅 등을 포함하여 다양한 맞춤화 환경을 제공할 수 있는 애플리케이션을 손쉽게 구축할 수 있습니다. Amazon Personalize는 엄격한 정적 규칙을 기반으로 하는 추천 시스템 수준을 뛰어넘어 사용자 지정 ML 모델을 훈련, 조정 및 배포함으로써 소매, 미디어 및 엔터테인먼트와 같은 산업의 고객들에게 고도의 맞춤형 추천을 제공할 수 있는 완전 관리형 기계 학습 서비스입니다.
Amazon Personalize는 필요한 인프라를 프로비저닝하고 데이터 처리, 기능 식별, 최상의 알고리즘 사용과 모델 훈련, 최적화 및 호스팅 등의 전체 ML 파이프라인을 관리합니다. 사용자는 애플리케이션 프로그래밍 인터페이스(API)를 통해 결과를 받아보고 최소 요금 또는 선불 약정 없이 사용한 만큼만 지불합니다. 모든 데이터는 개인 정보 보호 및 보안을 위해 암호화되며, 사용자를 위한 추천을 생성하는 데에만 사용됩니다.


기능

자동 기계 학습
Amazon Personalize는 사용자 대신 기계 학습을 관리합니다. Amazon S3 또는 실시간 통합 기능을 통해 데이터를 제공하면 Amazon Personalize는 자동으로 데이터를 로드하고 검사하며, 사용자가 올바른 알고리즘을 선택할 수 있도록 지원하고, 모델을 훈련하고, 정확도 지표를 제공하고, 맞춤형 예측을 생성할 수 있습니다. 새로운 메타데이터 및 실시간 사용자 이벤트 데이터 사용으로 시간이 지나면서 데이터 세트가 증가함에 따라 모델을 다시 훈련하여 정확한 맞춤형 추천을 계속해서 제공할 수 있습니다. 자세히 알아보기.

실시간 추천
사용자의 변화하는 의도에 실시간으로 대응하여 정확한 추천을 제시할 수 있습니다. 자세히 알아보기.

배치 추천
한 번에 많은 수의 사용자 또는 항목에 대한 추천을 계산하고, 저장한 다음, 이메일 시스템과 같은 배치 지향 워크플로에 제공할 수 있습니다. 자세히 알아보기.

새로운 사용자 및 새로운 항목 추천
새로운 사용자인 경우에도 추천을 효과적으로 생성하고 사용자에게 적합한 새로운 추천 항목을 찾을 수 있습니다.

컨텍스트에 따른 추천
디바이스 유형, 시간 등 컨텍스트를 기반으로 추천을 생성하여 추천의 정확도를 높일 수 있습니다. 자세히 알아보기.

유사한 항목 추천
사용자에게 유사한 항목을 보여줌으로써 카탈로그의 검색 기능을 향상할 수 있습니다.

기존 도구와 손쉽게 통합
Amazon Personalize는 간단한 추론 API 호출을 통해 웹사이트, 모바일 앱 또는 콘텐츠 관리 및 이메일 마케팅 시스템에 쉽게 통합할 수 있습니다. 이 서비스를 사용하면 사용자 추천, 유사한 항목 추천 및 맞춤형 항목 순위 재지정 기능을 생성할 수 있습니다. Amazon Personalize API를 호출만 하면 해당 서비스가 애플리케이션에서 사용 가능한 JSON 형식으로 항목 추천이나 순위가 재지정된 항목 목록을 출력합니다.
GetRecommendations API는 userID별로 관련 항목 목록을 반환합니다. 대표적인 사용 예는 사용자의 과거 시청 기록을 기반으로 동영상 목록을 제안하는 동영상 스트리밍 웹 사이트에 있는 랜딩 페이지의 콘텐츠 추천 위젯을 들 수 있습니다. 이 API를 사용하여 입력 itemID별로 유사한 itemID 목록을 반환할 수도 있습니다. 대표적인 사용 사례는 사용자가 영화의 세부 정보 페이지에 있을 때 유사한 영화를 추천하는 것입니다.
GetPersonalizedRanking API는 userID별 itemID 목록 순위와 재지정 예정인 itemID 목록 순위를 재지정합니다. 입력 목록은 편집자가 선정한 목록 또는 검색 쿼리 결과에 따른 itemID 목록 등 다양한 소스에서 얻을 수 있습니다. 예를 들어, 전자 상거래 업체는 키워드와 직접적으로 일치하는 제품 목록을 표시하는 대신 고객의 이전 행동 및 과거 구매에 대해 알고 있는 점을 이용해 가장 관련성이 높은 결과를 표시할 수 있습니다.





17. 
Amazon Polly (= TTS)
텍스트를 생생한 음성으로 변환 
https://aws.amazon.com/ko/polly/?c=14&pt=11

Amazon Polly는 텍스트를 생생한 음성으로 변환하는 서비스로서 이를 사용하면 말을 하는 애플리케이션을 만들고 전혀 새로운 유형의 음성 지원 제품을 개발할 수 있습니다. Polly의 TTS(텍스트 음성 변환) 서비스에서는 고급 딥 러닝 기술을 사용하여 자연스러운 사람의 음성을 합성합니다. 다양한 언어로 수십 개의 생생한 음성이 제공되므로, 여러 국가에서 사용하는 음성 지원 애플리케이션을 구축할 수 있습니다.
Amazon Polly는 표준 TTS 음성 외에도, 새로운 기계 학습 방식을 통해 말하기 품질을 더욱 높이는 NTTS(신경망 텍스트 음성 변환) 음성을 제공합니다. 또한 Polly의 신경망 TTS 기술은 뉴스 내레이션 사용 사례에 맞게 조정된 뉴스 진행자 스피킹 스타일을 지원합니다.
마지막으로 Amazon Polly Brand Voice는 조직에 대한 맞춤형 음성을 생성할 수 있습니다. 조직에서만 사용할 수 있는 NTTS 음성을 구축하기 위해 Amazon Polly 팀과 협력할 수 있는 맞춤형 참여 방식입니다. 




18. 
Amazon Rekognition
이미지와 비디오 분석 
https://aws.amazon.com/ko/rekognition/?c=14&pt=12

Amazon Rekognition을 사용하면 기계 학습 전문 지식을 사용하지 않고도 확장성이 뛰어난 입증된 딥 러닝 기술을 사용하여 애플리케이션에 이미지 및 비디오 분석을 쉽게 추가할 수 있습니다. Amazon Rekognition에서는 이미지 및 비디오에서 객체, 사람, 텍스트, 장면 및 활동을 식별하고 부적절한 콘텐츠를 탐지할 수 있습니다. 또한 Amazon Rekognition은 다양한 사용자 확인, 사람 수 계산, 공공 안전 사용 사례를 위해 얼굴 탐지, 분석 및 비교하는 데 사용할 수 있는 매우 정확한 얼굴 분석 및 얼굴 검색 기능을 제공합니다.

Amazon Rekognition Custom Labels를 사용하면 비즈니스 요구 사항에 특정한 이미지의 객체와 장면을 식별할 수 있습니다. 예를 들어 어셈블리 라인에서 특정 기계 부품을 분류하거나 비정상적인 공장을 탐지하기 위해 모델을 구축할 수 있습니다. Amazon Rekognition Custom Labels는 모델 개발의 중요한 부분을 자동으로 관리하므로, 기계 학습 전문 지식이 필요하지 않습니다. 식별하려는 객체나 장면의 이미지를 제공하기만 하면, 서비스에서 나머지를 처리합니다.



Amazon Rekognition Image란 무엇입니까?

Rekognition Image는 객체, 장면 및 얼굴을 감지하는 딥 러닝 기반 이미지 인식 서비스로서 텍스트를 추출하고, 유명 인사를 인식하며, 이미지에서 부적절한 콘텐츠를 식별합니다. 또한 얼굴을 검색하고 비교할 수 있습니다. Rekognition Image는 Amazon의 컴퓨터 비전 과학자들이 Prime Photos에서 매일 수십억 개의 이미지들을 분석할 목적으로 개발하여 성능이 검증되었을 뿐만 아니라 확장성까지 뛰어난 딥 러닝 기술을 기반으로 하고 있습니다. 이 서비스는 식별하는 모든 것의 신뢰도 점수를 반환하므로 이 정보를 바탕으로 결과를 어떻게 사용할지 결정할 수 있습니다. 또한 탐지된 모든 얼굴은 얼굴을 완전히 둘러싸는 사각형 프레임인 경계 상자 좌표와 함께 반환되어 이미지에서 얼굴의 위치를 찾는 데 사용할 수 있습니다.

주요 기능

객체 및 장면 탐지
Rekognition Image는 차량, 애완 동물, 가구 등 수천 개의 객체를 식별합니다. 또한 Rekognition은 일몰 또는 해변과 같이 이미지 내에서 장면도 탐지합니다. 그러므로 손쉽게 대규모 이미지 라이브러리를 검색, 필터링 및 큐레이팅할 수 있습니다.

안면 인식
Rekognition Image를 사용하면 대량의 이미지 모음에서 유사한 얼굴을 찾을 수 있습니다. 이미지에서 탐지된 얼굴의 인덱스를 생성할 수 있습니다. Rekognition Image의 빠르고 정확한 검색이 기준 얼굴에 가장 일치하는 얼굴을 반환합니다.

얼굴 분석
Rekognition Image를 사용하면 이미지 내에서 얼굴 위치를 찾아 얼굴 속성(예: 미소 또는 개안 여부)을 분석할 수 있습니다. 이미지를 분석할 때 Rekognition Image는 탐지된 각 얼굴에 대해 위치 및 사각형 프레임을 반환합니다.

얼굴 비교
Rekognition Image는 두 이미지 안의 얼굴이 동일인일 가능성을 측정할 수 있습니다. Rekognition에서는 유사도 점수를 사용하여 거의 실시간으로 사용자를 기준 사진과 대조하여 확인할 수 있습니다.

안전하지 않은 이미지 탐지
Rekognition Image를 사용하면 선정적이고 노골적인 콘텐츠가 탐지될 수 있으므로 애플리케이션 요구 사항에 따라 이미지를 필터링할 수 있습니다. Rekognition은 계층 구조의 레이블 목록을 신뢰도 점수와 함께 제공하므로 허용할 이미지를 세분화하여 제어할 수 있습니다.

유명 인사 인식
Rekognition Image는 자신의 분야에서 유명하고 주목할 만하거나 중요한 사람 수천 명을 탐지하고 인식합니다. 따라서 마케팅 및 미디어 필요에 따라 유명 인사용 디지털 이미지 라이브러리를 인덱싱 및 검색할 수 있습니다.

이미지 내 텍스트
Rekognition Image를 사용하면 도로 표지판이나 번호판 같은 자연스러운 장면 내의 텍스트를 비롯한 이미지 내 텍스트, 티셔츠나 머그잔 같은 객체 위의 텍스트, 자막이나 뉴스 같은 화면상 텍스트를 쉽게 찾고 추출할 수 있습니다. 이미지를 분석할 때 이미지 내 텍스트 기능은 탐지된 각 단어와 줄에 대해 신뢰도 점수와 함께 사각 프레임과 탐지된 텍스트 레이블을 반환합니다.

PPE(개인 보호 장비) 탐지
Amazon Rekognition Image는 이미지 안의 사람이 얼굴 커버, 손 커버, 머리 커버와 같은 PPE를 착용하고 있는지, 그리고 보호 장비가 해당되는 신체 일부를 덮고 있는지(얼굴 커버의 경우 코, 머리 커버의 경우 머리, 손 커버의 경우 손) 탐지할 수 있습니다. 자세히 알아보기 »

API, 콘솔 또는 명령줄을 통한 관리
Amazon Rekognition은 Amazon Rekognition API, AWS Management Console 및 AWS 명령줄 인터페이스(CLI)를 사용해 액세스할 수 있습니다. 콘솔, API 및 CLI는 Rekognition API를 사용해 레이블을 탐지하고 얼굴을 분석하며 얼굴을 비교하고 얼굴을 찾을 수 있는 기능을 제공합니다. AWS Lambda에서 Rekognition용 청사진을 제공하므로 Amazon S3, Amazon DynamoDB 등과 같은 AWS 데이터 스토어에 저장된 이벤트를 기반으로 이미지 분석을 손쉽게 시작할 수 있습니다.

관리 보안
Amazon Rekognition은 AWS Identity and Access Management(IAM)와 통합되었습니다. IAM 정책은 계정에 대한 리소스 수준의 권한 관리뿐만 아니라 Amazon Rekognition API에 대한 액세스 제어에 사용할 수 있습니다.

API 요약
Rekognition API 요약은 Rekognition 설명서에서 API 참조를 참조하십시오.

인적 검토
Amazon Rekognition은 Amazon Augmented AI(Amazon A2I)와 직접 통합되어 안전하지 않은 이미지 감지에 대한 인적 검토를 쉽게 구현할 수 있습니다. Amazon A2I는 이미지 조정에 내장된 인적 검토 워크플로를 제공합니다. 이를 통해 Amazon Rekognition의 예측을 쉽게 검토하고 검증할 수 있게 됩니다. Amazon A2I로 조직 내의 검토자 풀을 사용할 수 있거나 이미 Amazon Mechanical Turk를 통해 기계 학습 작업을 수행하는 50만명 이상의 독립 계약자 인력에 액세스할 수 있습니다. 품질과 보안 절차 준수를 위해 AWS에서 사전 검열을 거친 공급업체 인력도 이용할 수 있습니다. 인적 검토 워크플로 구현에 대해 자세히 알아보려면 Amazon A2I 웹사이트를 확인하거나 Amazon A2I 개발자 안내서의 Amazon Rekognition으로 Amazon A2I 통합을 참조하십시오.








19. 
Amazon SageMaker Data Wrangler
ML을 위한 데이터를 준비하는 가장 빠른 방법 
https://aws.amazon.com/ko/sagemaker/data-wrangler/

Amazon SageMaker Data Wrangler는 기계 학습(ML)을 위해 데이터를 집계하고 준비하는 시간을 몇 주에서 몇 분으로 단축합니다. SageMaker Data Wrangler를 통해 데이터 준비 및 피처 엔지니어링 프로세스를 간소화하고 단일 시각적 인터페이스에서 데이터 선택, 정리, 탐색 및 시각화를 포함한 데이터 준비 워크플로의 모든 단계를 완료할 수 있습니다. SageMaker Data Wrangler의 데이터 선택 도구를 사용하면 다양한 데이터 원본에서 원하는 데이터를 선택하고 한 번의 클릭으로 가져올 수 있습니다. SageMaker Data Wrangler에는 300개가 넘는 기본 제공 데이터 변환이 포함되어 있어서, 코드를 작성하지 않고도 빠르게 피처를 정규화하고 변환하며 결합할 수 있습니다. SageMaker Data Wrangler의 시각화 템플릿을 사용하면 ML을 위해 처음으로 완벽하게 통합된 개발 환경(IDE)인 Amazon SageMaker Studio에서 템플릿을 보며 이러한 변환이 의도한 대로 완료되었는지 빠르게 미리 보고 검사할 수 있습니다. 데이터가 준비되면 Amazon SageMaker Pipelines에서 완벽하게 자동화된 ML 워크플로를 구축하고 Amazon SageMaker Feature Store에서 재사용하도록 저장할 수 있습니다.




20. 
Amazon SageMaker Ground Truth (= tagger) 
정확한 ML 훈련 데이터 집합 구축 
https://aws.amazon.com/ko/sagemaker/groundtruth/?c=14&pt=13
Amazon SageMaker Ground Truth는 기계 학습을 위한 고도로 정확한 훈련 데이터 집합을 손쉽게 구축할 수 있게 해 주는 완전관리형 데이터 레이블링 서비스입니다. SageMaker Ground Truth 콘솔을 통해 사용자 지정 또는 기본 제공 데이터 레이블링 워크플로를 활용하여 데이터 레이블링을 몇 분 만에 시작하십시오. 이러한 워크플로는 3D 포인트 클라우드, 비디오, 이미지, 텍스트를 포함하여 다양한 사용 사례를 지원합니다. 레이블러는 워크플로의 일부로 자동 3D 입방체 스내핑(Cuboid Snapping), 2D 이미지 왜곡 제거, 자동 세그먼트 도구 같은 보조 레이블링 기능을 활용하여 데이터 세트 레이블링에 소요되는 시간을 줄일 수 있습니다. 또한 Ground Truth에서 제공되는 자동 데이터 레이블링 기능은 기계 학습 모형을 사용하여 데이터를 레이블링합니다.


21. 
Amazon Textract   
문서에서 텍스트와 데이터 추출 
https://aws.amazon.com/ko/textract/?c=14&pt=14
Amazon Textract는 스캔한 문서에서 텍스트, 필기 및 데이터를 자동으로 추출하여 단순한 광학 문자 인식(OCR)을 넘어 양식과 테이블에서 데이터를 식별, 이해 및 추출하는 기계 학습 서비스입니다. 오늘날 많은 기업들이 PDF, 이미지, 테이블, 양식과 같이 스캔한 문서에서 또는 양식이 변경될 때 종종 재구성해야 하는 수동 구성이 필요한 간단한 OCR 소프트웨어를 통해 데이터를 수동으로 추출합니다. 이러한 비용이 많이 드는 수동 프로세스를 해결하기 위해 Textract은 기계 학습을 사용하여 모든 유형의 문서를 즉시 읽고 처리함으로써 수동 작업 없이도 텍스트, 필기, 테이블 및 기타 데이터를 정확하게 추출합니다. 따라서 그것이 대출 처리 자동화든, 납세 문서 자동화든 관계없이 신속하게 문서 처리를 자동화하고 추출된 정보에 대해 조치를 취할 수 있습니다. Textract는 몇 시간, 며칠이 아닌 단 몇 분 만에 데이터를 추출할 수 있습니다. 또한 Amazon Augmented AI와 인적 검토를 병행하여 모델을 관리하고 민감한 데이터를 검토할 수 있습니다.


22. 
Amazon Translate  
자연스럽고 유창한 언어 번역 
https://aws.amazon.com/ko/translate/?c=14&pt=15
Amazon Translate는 합리적인 가격으로 고품질의 사용자 지정 가능한 언어 번역을 빠르게 제공하는 신경망 기계 번역 서비스입니다. 인공신경망 기계 번역은 언어 번역 자동화의 한 형태로, 딥 러닝 모델을 사용하여 기존 통계 및 규칙 기반 번역 알고리즘보다 더 정확하고 자연스러운 번역을 제공합니다.
Amazon Translate를 사용하면 웹 사이트 및 애플리케이션 등 다양한 사용자를 위한 콘텐츠를 현지화하고, 다량의 텍스트를 손쉽게 번역하여 분석하며, 사용자 간에 교차 언어 커뮤니케이션을 효율적으로 지원할 수 있습니다.
Intento는 최근 14개 언어 쌍, 16개 산업 부문 및 8개 콘텐츠 유형 부문에서 Amazon Translate를 2020년 최고의 기계 번역 공급자로 선정했습니다.




23. 
Amazon Transcribe 
자동 음성 인식 (= STT)
https://aws.amazon.com/ko/transcribe/?c=14&pt=16
Amazon Transcribe는 개발자가 음성을 텍스트로 변환하는 기능을 애플리케이션에 쉽게 추가할 수 있도록 합니다. 사실상 컴퓨터가 오디오 데이터를 검색하고 분석하기는 불가능합니다. 그래서 기록된 음성을 텍스트로 변환한 다음에 애플리케이션에서 사용할 수 있습니다. 예전에는 고객이 녹취 제공업체와 협력해야 했는데, 값비싼 계약을 해야 하는 데다 이런 작업을 수행할 때 자신의 기술 스택을 통합하기 어려웠습니다. 이런 제공업체 대부분은 시나리오가 바뀌면 적응하지 못하는 오래된 기술을 사용합니다. 예를 들어 콜 센터에서는 전화 오디오의 충실도가 낮은 경우가 많은데, 그러면 정확도가 형편없이 떨어집니다.
Amazon Transcribe는 자동 음성 인식(ASR)이라는 딥 러닝 프로세스를 사용하여 음성을 텍스트로 빠르고 정확하게 변환합니다. Amazon Transcribe를 사용하면 고객 서비스 통화를 기록하고, 자막 처리를 자동화하며, 미디어 자산에 대한 메타데이터를 생성하여 완전히 검색 가능한 아카이브를 만들 수 있습니다. Amazon Transcribe Medical을 사용하여 음성 진료 내용을 텍스트로 변환하는 기능을 임상 문서 애플리케이션에 추가할 수 있습니다.




24. 
AWS Deep Learning AMI
EC2에서 딥 러닝 빠르게 시작하기 
https://aws.amazon.com/ko/machine-learning/amis/?c=14&pt=17
AWS Deep Learning AMI는 기계 학습 담당자 및 연구원에게 규모와 관계없이 클라우드에서 딥 러닝을 가속화할 수 있는 인프라 및 도구를 제공합니다. TensorFlow, PyTorch, Apache MXNet, Chainer, Gluon, Horovod, Keras 등 인기 있는 딥 러닝 프레임워크와 인터페이스가 사전 설치된 Amazon EC2 P3 인스턴스를 빠르게 시작하여, 정교한 사용자 지정 AI 모델을 교육하거나 새 알고리즘을 실험하거나 새로운 기술과 기법을 배울 수 있습니다.
필요한 것이 Amazon EC2 GPU 인스턴스든, 아니면 CPU 인스턴스든 간에, Deep Learning AMI에는 추가 요금이 없습니다. 애플리케이션을 저장하고 실행하는 데 필요한 AWS 리소스에 대해서만 요금을 지불하면 됩니다.



25. 
AWS Deep Learning Containers
딥 러닝을 위한 Docker 이미지 
https://aws.amazon.com/ko/machine-learning/containers/?c=14&pt=18
AWS Deep Learning Containers(AWS DL Containers)는 딥 러닝 프레임워크가 사전에 설치된 Docker 이미지로서, 처음부터 환경을 구축하고 최적화하는 복잡한 프로세스를 건너뜀으로써 사용자 지정 기계 학습(ML) 환경을 신속하게 배포할 수 있도록 지원합니다. AWS DL Containers는 TensorFlow, PyTorch 및 Apache MXNet를 지원합니다. Amazon SageMaker, Amazon Elastic Kubernetes Service(Amazon EKS), Amazon EC2의 자체 관리형 Kubernetes 및 Amazon Elastic Container Service(Amazon ECS)에 AWS DL Containers를 배포할 수 있습니다. 이 컨테이너는 Amazon Elastic Container Registry(ECR) 및 AWS Marketplace를 통해 무료로 제공되며, 사용한 리소스에 대해서만 요금을 지불하면 됩니다. 이 자습서로 시작하세요.



26. 
AWS DeepComposer
ML 지원 연주용 키보드 
https://aws.amazon.com/ko/deepcomposer/?c=14&pt=19
AWS DeepComposer는 개발자가 기계 학습을 창의적인 방식으로 활용할 수 있는 방법을 제시합니다. 연주용 키보드와 ML 역량을 키울 수 있는 최신 기계 학습 기법을 실제로 경험해볼 수 있습니다.



27. 
AWS DeepLens
딥 러닝을 사용하는 비디오 카메라 
https://aws.amazon.com/ko/deeplens/?c=14&pt=20
AWS DeepLens는 딥 러닝 기술을 확장하도록 설계된 완전히 프로그래밍 가능한 비디오카메라, 자습서, 코드 및 사전 교육된 모델을 통해 말 그대로 개발자의 손에 기계 학습을 쥐여 줍니다.
새 AWS DeepLens(2019년 에디션)는 미국 및 새로운 7개 국가(영국, 독일, 프랑스, 스페인, 이탈리아, 캐나다 및 일본)에서 구매 가능합니다. 디바이스를 더 쉽게 설정할 수 있도록 하드웨어와 소프트웨어를 개선되었으므로 고객은 보다 빠르게 기계 학습을 시작할 수 있습니다.  



28. 
AWS DeepRacer
ML로 움직이는 1/18 크기의 자율주행 경주용 자동차 
https://aws.amazon.com/ko/deepracer/?c=14&pt=21
모든 기술 수준의 개발자가 클라우드 기반 3D 레이싱 시뮬레이터, 강화 학습으로 움직이는 1/18 비율의 완전 자율 경주용 자동차 및 글로벌 레이싱 리그를 통해 기계 학습을 경험할 수 있습니다.
강화 학습의 선두 주자
AWS DeepRacer는 흥미롭고 재미있는 방식으로 RL(강화 학습)을 시작할 수 있게 해줍니다. RL은 고급 ML(기계 학습) 기술로, 학습 모델에 대해 다른 기계 학습 방법과는 매우 다른 접근법을 사용합니다. RL의 최대 강점은 레이블이 지정된 훈련 데이터 없이 매우 복잡한 행동을 학습하고, 장기적인 목표에 맞춰 최적화하면서 단기 의사 결정을 내릴 수 있다는 것입니다.



29. 
AWS Inferentia
기계 학습 추론 칩 
https://aws.amazon.com/ko/inferentia/?c=14&pt=22
AWS의 비전은 딥 러닝을 상용화하고 저렴한 종량 요금제 사용 모델로 최첨단 인프라를 사용할 수 있게 하는 것입니다. AWS Inferentia는 딥 러닝 워크로드를 가속화하도록 설계된 Amazon 최초의 맞춤형 칩으로, 이 비전을 실현하기 위한 장기적인 전략의 일환으로 개발되었습니다. AWS Inferentia는 클라우드에서 뛰어난 추론 성능을 제공하며, 개발자가 총 추론 비용을 줄이면서 비즈니스 애플리케이션에 기계 학습을 쉽게 통합할 수 있게 설계되었습니다.
AWS Neuron 소프트웨어 개발 키트(SDK)는 AWS Inferentia에 대한 워크로드 성능을 최적화하는 컴파일러, 런타임 및 프로파일링 도구로 구성됩니다. 개발자는 Tensorflow, PyTorch, MXNet 등 인기 있는 프레임워크에서 구축 및 훈련된 복잡한 신경망 모델을 배포하고 AWS Inferentia 기반 Amazon EC2 Inf1 인스턴스에 배포할 수 있습니다. 지금 사용하는 동일한 기계 학습 프레임워크를 계속 사용할 수 있으며, 최소의 코드 변경과 공급업체별 솔루션에 구속되지 않고도 Inf1에 모델을 마이그레이션할 수 있습니다.



30. 
AWS Panorama(평가판)
엣지의 컴퓨터 비전으로 운영 개선 
https://aws.amazon.com/ko/panorama/
AWS Panorama is a machine learning Appliance and Software Development Kit (SDK) that allows organizations to bring computer vision (CV) to on-premises cameras to make predictions locally with high accuracy and low latency. With AWS Panorama, you can automate tasks that have traditionally required human inspection to improve visibility into potential issues. For example, you can use AWS Panorama to evaluate manufacturing quality, identify bottlenecks in industrial processes, and monitor workplace safety and security - even in environments with limited or no internet connectivity.
The AWS Panorama Appliance is a hardware device that allows you to add CV to your internet protocol (IP) cameras that weren’t built to accommodate computer vision. AWS Panorama Appliance turns your existing cameras into smart cameras that can run CV models on multiple concurrent video streams.
The AWS Panorama Device SDK is a software kit that enables third-party manufacturers to build new cameras that run more meaningful CV models at the edge for tasks like object detection or activity recognition. AWS Panorama-compatible cameras work out of the box with AWS machine learning services.




31. 
AWS 기반 PyTorch
유연한 오픈 소스 기계 학습 프레임워크 
https://aws.amazon.com/ko/pytorch/?c=14&pt=23a
PyTorch is an open source deep learning framework that makes it easy to develop machine learning models and deploy them to production. Using TorchServe, PyTorch's model serving library built and maintained by AWS in partnership with Facebook, PyTorch developers can quickly and easily deploy models to production. PyTorch also provides dynamic computation graphs and libraries for distributed training, which are tuned for high performance on AWS.



32. 
AWS 기반 Apache MXNet
확장 가능한 고성능 딥 러닝 
https://aws.amazon.com/ko/mxnet/?c=14&pt=23
Apache MXNet은 빠르고 확장 가능한 교육 및 추론 프레임워크로서 기계 학습을 위해 사용이 쉽고 간단한 API가 제공됩니다.
MXNet에는 Gluon 인터페이스가 포함되어 있으므로 모든 기술 수준의 개발자가 클라우드, 엣지 디바이스 및 모바일 앱에서 딥 러닝을 시작할 수 있습니다. Gluon 코드 몇 줄로 객체 감지, 음성 인식, 추천 및 개인화를 위한 선형 회귀, 컨벌루션 네트워크 및 반복 LSTM을 구축할 수 있습니다.
대규모로 기계 학습 모델을 구축, 교육 및 배포할 수 있는 플랫폼인 Amazon SageMaker를 사용하면 AWS에서 완전 관리형 MxNet 환경을 시작할 수 있습니다. 또는 AWS Deep Learning AMI를 사용하여 MxNet의 사용자 정의 환경 및 워크플로를 비롯해 TensorFlow, PyTorch, Chainer, Keras, Caffe, Caffe2 및 Microsoft Cognitive Toolkit 같은 기타 프레임워크를 구축할 수 있습니다.



33. 
AWS 기반 TensorFlow
오픈 소스 인공 지능 라이브러리 
https://aws.amazon.com/ko/tensorflow/?c=14&pt=24
TensorFlow는 기계 학습으로 애플리케이션을 개선하려는 연구원과 개발자가 사용할 수 있는 다수의 딥 러닝 프레임워크 중 하나입니다. AWS는 고객이 컴퓨터 비전, 자연어 처리, 음성 번역 및 기타 부문에서 자체 모델을 개발하고 제공할 수 있도록 TensorFlow에 대한 광범위한 지원을 제공합니다.
AWS에서는 Amazon SageMaker를 사용하여 TensorFlow를 시작할 수 있습니다. SageMaker는 TensorFlow 모델을 대규모로 구축, 훈련 및 배포할 수 있는 쉽고 경제적인 방법을 제공하는 완전관리형 기계 학습 서비스입니다. 인프라를 직접 관리하는 것을 선호하는 경우 TensorFlow의 최신 버전을 통해 소스에서 구축되고 성능에 최적화되어 제공되는 AWS Deep Learning AMI 또는 AWS Deep Learning Containers를 사용하여 사용자 지정 기계 학습 환경을 빠르게 배포할 수 있습니다.




 

클라우드 제품

Amazon Web Services는 컴퓨팅, 스토리지, 데이터베이스, 분석, 네트워킹, 모바일, 개발자 도구, 관리 도구, IoT, 보안 및 엔터프라이즈 애플리케이션을 비롯하여 광범위한 글로벌 클라우드 기반 제품을

aws.amazon.com

 

반응형

+ Recent posts