목록Artificial intelligence, AI/REVIEW (6)
IT_World

컨볼루션 신경망(ConvNets) 일반적으로 고정 자원 예산으로 개발된다. 더 많은 경우에는 정확성을 높이기 위해 scaled up하며, 리소스를 사용할 수 있다. 본 논문에서는 모델 스케일링을 체계적으로 연구하고 다음을 식별한다. 네트워크 깊이(network depth), 폭(width), and 해상도의 균형(resolution)을 주의 깊게 조정하면 성능이 향상되고, 이 관찰을 기반으로 새로운 확장을 제안한다. 단순하면서도 매우 효과적인 복합 계수를 사용하여 깊이/폭/해상도 모든 차원을 균일하게 스케일링하는 방법을 MobileNet 및 ResNet에 이 방법의 효과를 보여준다. EfficientNet은 이전 ConvNet보다 훨씬 높은 정확도와 효율성을 달성한다. 특히, EfficientNet-B7..

Mask R-CNN을 탐색하여 인스턴스 분할이 Mask R-CNN과 어떻게 작동하는지 이해 한 다음 Keras를 사용하여 Mask R-CNN을 사용하여 이미지의 분할을 예측 개요 Mask R-CNN은 이미지 분할 작업을 위한 최첨단 프레임 워크 Mask R-CNN이 어떻게 작동하는지 단계별로 배울 수 있다. 또한 Python에서 Mask R-CNN을 구현하고 자체 이미지에 사용하는 방법도 살펴보자 소개 자율 주행 자동차 시스템이 급회전을 안전하게 탐색할 수 있도록 정확한 도로 형태를 감지할 수 있는 기술이 필요하다. 그러한 시스템을 구축하는 데 사용할 수있는 최신 최첨단 프레임 워크? 그것이 마스크 R-CNN이다. 먼저 이미지 분할이 무엇인지 빠르게 살펴볼 것이다. 그런 다음이 기사의 핵심 인 Mask ..

참조 논문 : https://arxiv.org/pdf/1801.07698v1.pdf 컨볼루션 신경망은 차별적 특징을 학습하는 대용량으로 인해 최근 몇 년 동안 얼굴 인식의 성능을 크게 향상했다. Softmax loss의의 차별적 힘을 강화하기 위해, 곱셈적 각도 여유와 첨가적 코사인 여유는 각각 손실 함수에 각도 여유와 코사인 여유를 통합한다. 본 논문에서는 지금까지 제안된 감독 신호보다 기하학적 해석이 우수한 새로운 감독 신호인 가산 각도 여백(ArcFace)을 제안한다. 구체적으로, 제안된 ArcFace cos(α + m)는 L2 정규화된 가중치와 특징에 기초한 각(arc) 공간에서 결정 경계를 직접 최대화한다. 곱셈적 각도 여유 비용(m²)과 첨가적 코사인 여유 비용 β - m에 비해, ArcFac..

4. Experiments 구현 세부 정보를 설명하고 실험 및 절제 연구를 광범위하게 수행하여 GroupFace의 효과를 보여준다. 4.1. Implementation Details(구현 세부 정보) Datasets. 열차의 경우, 100K ID에 대해 약 10M의 이미지를 포함하는 MSCleb-1M [10]을 사용한다. MSCleb-1M 원본 데이터 세트의 노이즈가 있는 레이블 때문에, 3을 포함하는 정제 버전[7]을 사용한다.85K ID에 8M 이미지 제공 테스트를 위해 다음과 같이 9개의 일반적으로 사용되는 데이터 세트를 사용하여 실험을 수행한다. • 5,749개의 ID에서 13,233개의 이미지를 포함하고 있으며 이 이미지로부터 6000개의 쌍을 제공하며, CALFW [46] 및 CPLFW [45..

얼굴 인식 분야에서 모델은 더 적은 차원 임베딩 기능으로 수백만 개의 얼굴 이미지를 구별하는 방법을 배우며, 그러한 방대한 정보는 단일 분기로 기존 모델에 제대로 인코딩 되지 않을 수 있다. 임베딩 기능의 품질을 향상하기 위해 여러 그룹 인식 표현을 동시에 활용하는 GroupFace라는 새로운 얼굴 인식 전문 아키텍처를 제안한다. 제안된 방법은 추가 인간 주석 없이 각 그룹에 속하는 샘플 수의 균형을 맞추는 자체 분산 레이블을 제공하고 대상 ID의 검색 공간을 좁힐 수 있는 그룹 인식 표현을 학습한다. 광범위한 절제 연구와 시각화를 보여줌으로써 제안된 방법의 효과를 입증한다. 제안된 방법의 모든 구성 요소는 계산 복잡성이 미미하게 증가하여 종단 간 방식으로 훈련될 수 있다. 제안된 방법은 LFW, YTF..

이 학습은 작업을 위해 개발된 모델을 두 번째 작업의 모델의 시작점으로 재사용하는 기계 학습 방법이다. 이러한 문제에 대한 신경망 모델을 개발하는 데 필요한 방대한 컴퓨팅 및 시간 리소스와 기술의 급격한 향상을 고려할 때 사전 훈련된 모델을 컴퓨터 비전 및 자연어 처리 작업의 시작점으로 사용하는 딥 러닝에서 널리 사용되는 접근 방식이다. 관련 문제에 대해 제공한다. 전이 학습을 사용하여 훈련 속도를 높이고 딥 러닝 모델의 성능을 개선하는 방법을 알아 보자. 전이 학습이란 딥 러닝에서 전이 학습의 일반적인 예 자신의 예측 모델링 문제에 전이 학습을 사용하는 경우 1. 전이 학습이란 전이 학습은 한 작업에서 훈련된 모델이 두 번째 관련 작업에서 용도가 변경되는 기계 학습 기술이다. 전이 학습 및 영역 적응은..