자연어 처리 (NLP)에 적용되어 우수한 성능이 검증된 Transformer 알고리즘을 컴퓨터 영상인식 분야에 적용한 모델로, 이미지를 작은 패치로 분할하고 벡터화한뒤, 인코더의 Self-Attention 및 Feed-Forward 신경망을 사용하여 이미지에서 복잡한 패턴과 문맥 정보를 추출합니다.
The model applies the proven and excellent-performing Transformer algorithm from Natural Language Processing (NLP) to the field of computer vision. It divides the image into small patches, vectorizes them, and utilizes the Self-Attention and Feed-Forward neural networks in the encoder to extract complex patterns and contextual information from the image.
기존 CNN기반 영상인식 모델이 현장의 다양한 환경적 변수로 인해 갖는 인식 성능의 한계를 극복하고, 최신 Transformer 기술을 적용한 인공지능 모델 개발을 통해 실제 현장에서 적용 가능한 고성능, 고효율 영상인식 모델 을 개발하고 있습니다.
We are developing a high-performance and highly efficient computer vision model applicable in real-world scenarios by overcoming the limitations in recognition performance that traditional CNN-based image recognition models face due to various environmental factors in the field. This involves incorporating the latest Transformer technology into the development of artificial intelligence models for image recognition.
당사는 Transformer의 이론적 기반위에 다양한 모델 경량화 기술 및 기존 CNN모델과 결합된 Hybrid Model 개발 등 도메인별 요구 특성을 반영하여 개별 Application에 최적화된 인공지능 모델을 제공합니다.
We provide artificial intelligence models optimized for individual applications by incorporating various model lightweighting techniques on top of the theoretical foundation of Transformers and combining them with existing CNN models.
This includes reflecting the specific requirements of different domains and developing hybrid models tailored to each application.
Derma-ViT
피부과 영역은 아직 전문의의 시각적 인지능력에 기반하여 진단, 처방이 이루어 지고 있습니다. 다른 의료 분야와 마찬가지로 의료 현장의 디지털화, 데이터화에 따른 새로운 진단 방법이 도입되고 있으며 인공지능을 적용한 피부 상태 및 병변 인식 모델 적용이 시도 되고 있습니다.
피부과 특성상 개인 정보 보호 이슈로 인하여 대량의 학습이미지를 확보하는데 어려움이 있습니다. 당사는 비식별화된 병변 이미지를 바탕으로 대량의 합성 데이터를 생성하여 이러한 문제를 해결하고 있습니다.
학습된 비전 트랜스포머 모델은 피부과 의료 기기 및 피부 미용 기기등에 적용하여 실제 현장에서 적용 가능한 높은 정확도를 확보 합니다.
Retail-ViT
무인화 추세에 따라 소매 매장에서도 새로운 결제 방식의 도입이 요구되고 있습니다. 전통적인 바코드 방식의 불편함과 처리 시간의 문제를 해결하고, 소비자 편의를 증대하기 위하여 비전 인식 기반의 자동 결제 (Self Check Out) 솔루션에 적용 가능한 상품 인식 트랜스포머 모델을 개발합니다.
국내 리테일 매장 상품 10,000여 제품에 대한 비전 트랜스포머 기반 모델로, 기존 CNN 기반의 인식 모델이 매장내의 조명환경 변화에 따른 인식율 저하로 인해 활용도가 떨어지는 단점을 극복한 모델입니다.
Robo-ViT
제조 로봇 자율 작업을 위하여 부품 및 주변 환경 인식이 가능한 비전 트랜스포머 모델을 개발합니다.
Autonomous Driving-ViT
배송 로봇, 서비스 로봇등 자율 주행을 위한 비전 트랜스포머 모델을 개발합니다.
Synthetic Data (합성데이터)
트랜스포머 모델 성능향상에 필수적인 방대한 양의 학습 데이터 확보를 위하여 당사의 그래픽 처리 노하우와 생성형 AI 기술을 적용하여 합성 데이터를 생성합니다.
합성데이터는 원본데이터의 통계적 특성 및 표본을 바탕으로 컴퓨터 시뮬레이션이나 생성형 인공지능 알고리즘을 통해 인위적으로 생성한 데이터로 실제 데이터에서 발생하는 데이터의 품질, 편향, 개인정보 보호 이슈를 해결하고, 방대한 양의 데이터를 비용, 시간 효율적으로 확보할 수 있습니다.
To secure the extensive amount of training data essential for improving Transformer model performance, we utilize our expertise in graphics processing and generative AI technology to generate synthetic data.
Synthetic Data Platform
데이터의 품질 Data Quality
Data의 정확성, 완전성, 관련성 확보 Accuracy, completeness, and relevance of data.
데이터의 다양성 Data Diversity
AI 모델 편향성을 배제하고 일반화를 위한 데이터 설계 Diverse data from various sources to eliminate bias achieve generalization in Al models
데이터의 양 Data Quantity
인공지능 모델 정확성 향상을 위한 대규모 데이터 전처리 및 레이블링을 시간, 비용 효율적으로 해결 Securing large scale data, data preprocessing and labeling in cost effective way.
개인정보 보호 Privacy Protection
의료 데이터등 개인정보 보호 및 보안 관리 Management of privacy and security for protecting personal information.
GPNPU
Edge 디바이스에서 Transformer 모델을 구동하기 위해 GPU 와 NPU를 결합한 하이브리드 아키텍처입니다.
– RISC 기반 고정차원 연산을 위한, Multi-Threading을 통한 병렬 컴퓨팅 지원. – GPU는 Normalization 연산, NPU는 Convolution 연산을 수행. – NPU는 INT8, bF16 와 Advanced DNN에 필요한 INT16, INT32, FP32, FP64 등 지원.
Edge Device에서 운용 가능한 저전력, 고성능 AI 반도체 입니다.
– 추론성능 : 40TOPS 이상 – 소비전력 : 10W 이하
GPNPU IP & Chip 개발 (MPW, FPGA, SoC) 및 전문가용 고가 장비에 공급합니다.
GPNPU is a hybrid architecture combining GPU and NPU to operate Transformer models on Edge devices.
supports parallel computing through multi-threading for fixed-dimensional operations based on RISC.
The GPU handles Normalization operations, and the NPU performs Convolution operations.
The NPU supports various data formats, including INT8, bF16, as well as INT16, INT32, FP32, FP64 required for Advanced DNN.
GPNPU is an AI processor suitable for Edge devices, designed for low power consumption and high performance.
Inference Performance: 40 TOPS or more
Power Consumption: Less than 10W
We provide GPNPU IP & Chip (supporting MPW, FPGA, SoC) solutions for expert grade equipment
ViT 모델 추론 최적화를 위한 Compiler 및 ViT DNN Library를 지원합니다.
ONNX-MLIR, TVM등 AI 모델 컴파일러 기반 ViT모델에서 특정 연산에 최적화 된 프로세서로 작업 할당 및 스케쥴링 및 메모리 관리 최적화 등 수행
We provide a Compiler and ViT DNN Library for optimizing inference in ViT models.
Working based on AI model compilers such as ONNX-MLIR and TVM,
Allocating tasks to processors optimized for specific operations in ViT models.
Scheduling and optimizing memory management to enhance performance.