본문으로 건너뛰기

"Convolutional neural networks" 태그로 연결된 5개 게시물개의 게시물이 있습니다.

합성곱 신경망

모든 태그 보기

Deep learning-based fabric defect detection: A review

· 약 5분
Yavuz Kahraman
Adiyaman University 연구원
Alptekin Durmuşoğlu
연구원

논문 정보

  • 제목: Deep learning-based fabric defect detection: A review
  • 저자: Yavuz Kahraman (Adiyaman University), Alptekin Durmuşoğlu (Gaziantep University)
  • 학회/저널: Textile Research Journal
  • 발행일: 2022-10-17
  • DOI: 10.1177/00405175221130773
  • 주요 연구 내용: 2003년부터 현재까지 발표된 딥러닝 기반 직물 결함 검출 관련 논문 38개를 체계적으로 검토하고 분류함. 연구들은 주로 합성곱 신경망(CNN), 생성적 적대 신경망(GAN), 오토인코더(Autoencoder), 순환 신경망(LSTM)과 같은 주요 딥러닝 아키텍처를 기반으로 분석되었음.
  • 주요 결과 및 결론: 딥러닝, 특히 CNN 기반 방법론이 직물 결함 검출에서 95% 이상의 높은 성공률을 보이며 매우 효과적임을 확인함. 가장 많이 활용된 공개 데이터셋은 TILDA였으나, 연구의 일반화와 재현성을 위해 표준화된 대규모 데이터베이스 구축의 필요성을 제기함.
  • 기여점: 본 논문은 딥러닝 기반 직물 결함 검출 분야를 전문적으로 다룬 최초의 최신 리뷰 연구임. 주요 딥러닝 아키텍처의 장단점을 비교 분석하고, 사용된 데이터셋과 성능을 종합적으로 정리하여 해당 분야 연구자들에게 유용한 참고 자료와 향후 연구 방향을 제시함.

딥러닝 기반 폴리에스터 섬유의 염색색상 결과예측 모형 개발

· 약 4분
이우창
연구원
손현식
연구원
이충권
연구원

논문 정보

  • 제목: 딥러닝 기반 폴리에스터 섬유의 염색색상 결과예측 모형 개발 (Development of a model for predicting dyeing color results of polyester fibers based on deep learning)
  • 저자: 이우창(다이텍연구원), 손현식(다이텍연구원), 이충권(계명대학교 경영정보학전공 교수)
  • 학회/저널: 스마트미디어저널 (Smart Media Journal)
  • 발행일: 2022-04-18
  • DOI: 10.30693/SMJ.2022.11.3.74
  • 주요 연구 내용: 폴리에스터 섬유 염색 공정 최적화를 위해 376건의 실험 데이터를 수집하고, 이를 다층퍼셉트론(MLP), CNN, LSTM 딥러닝 모델에 학습시켜 최종 염색 색상(L*, a*, b*)을 예측함. 각 모델의 성능은 K-겹 교차 검증을 통해 평가 및 비교됨.
  • 주요 결과 및 결론: 세 가지 모델 중 염색 공정의 순차적 특성을 반영한 LSTM 모델이 가장 우수한 예측 성능을 보임. LSTM 모델은 CMC(2:1) 색차 평균이 0.6479로 가장 낮았고, L*, a*, b* 각 값에 대한 R-Square 값도 가장 높아 분산 설명력이 뛰어났음.
  • 기여점: 본 연구는 딥러닝 기술을 염색 공정에 적용하여 객관적인 색상 예측 모델을 개발함. 특히 LSTM 모델의 우수성을 입증함으로써, 작업자의 숙련도에 대한 의존도를 낮추고 재염 발생을 줄여 염색 공정의 효율성과 품질을 최적화할 수 있는 가능성을 제시함.

Fabric Defect Classification Using Combination of Deep Learning and Machine Learning

· 약 3분
Semih UTKU
연구원
Hakan ÖZDEMİR
연구원

논문 정보

  • 제목: Fabric Defect Classification Using Combination of Deep Learning and Machine Learning
  • 저자: Fatma Günseli YAŞAR ÇIKLAÇANDIR (İzmir Katip Çelebi University), Semih UTKU (Dokuz Eylul University), Hakan ÖZDEMİR (Dokuz Eylul University)
  • 학회/저널: Journal of Artificial Intelligence and Data Science (JAIDA)
  • 발행일: 2021-08-12
  • DOI: 제공되지 않음
  • 주요 연구 내용: 딥러닝 모델(ResNet18, GoogLeNet)을 이용한 원단 불량 분류와, 이 모델들에서 특징만 추출하고 분류는 SVM(Support Vector Machines)으로 수행하는 하이브리드 방식의 성능을 비교 분석함. 딥러닝의 단점인 긴 처리 시간을 개선하는 것을 목표로 함.
  • 주요 결과 및 결론: 순수 ResNet18 모델이 가장 높은 분류 정확도(최대 87.5%)를 보였으나, ResNet18로 특징을 추출하고 SVM으로 분류하는 하이브리드 모델은 정확도 저하가 크지 않으면서도 분류 시간을 약 60배 단축시키는 결과를 보임.
  • 기여점: 딥러닝의 높은 특징 추출 능력과 머신러닝 분류기의 속도 이점을 결합하여, 원단 불량 검출 시스템에서 시간 효율성과 정확성 간의 균형을 맞춘 실용적인 접근법을 제시함. 이를 통해 속도가 중요한 실제 생산 환경에 적용 가능한 지능형 시스템의 가능성을 보임.

Deep Residual Learning for Image Recognition

· 약 5분
Kaiming He
Facebook AI Research 연구원
Xiangyu Zhang
연구원
Shaoqing Ren
연구원
Jian Sun
연구원

논문 정보

  • 제목: Deep Residual Learning for Image Recognition
  • 저자: Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun (Microsoft Research)
  • 학회/저널: arXiv (ILSVRC 2015 우승)
  • 발행일: 2015-12-10
  • DOI: arxiv.org/abs/1512.03385
  • 주요 연구 내용: 네트워크가 깊어질수록 정확도가 떨어지는 'degradation' 문제를 해결하기 위해 잔차 학습(residual learning) 프레임워크를 제안함. 네트워크가 목표 함수를 직접 학습하는 대신, 입력에 대한 잔차 함수(residual function)를 학습하도록 shortcut connection을 도입하여 매우 깊은 네트워크의 최적화를 용이하게 함.
  • 주요 결과 및 결론: ImageNet 데이터셋에서 최대 152개 레이어의 매우 깊은 잔차 네트워크(ResNet)를 성공적으로 훈련시켰으며, 이는 VGGNet보다 8배 깊지만 복잡도는 더 낮음. ResNet 앙상블 모델은 ImageNet test set에서 3.57%의 top-5 error를 달성하여 ILSVRC 2015 분류 과제에서 1위를 차지함.
  • 기여점: 심층 신경망의 'degradation' 문제를 해결하는 잔차 학습 프레임워크(ResNet)를 제안함. 이전보다 훨씬 깊은 네트워크(152-layer)의 훈련을 가능하게 하여 이미지 인식 분야에서 SOTA(State-of-the-art) 성능을 달성함. 잔차 학습의 효과를 ImageNet 및 CIFAR-10 데이터셋에서 실험적으로 증명하고, COCO 데이터셋을 사용한 객체 탐지에서도 우수성을 입증함.

A Neural Algorithm of Artistic Style

· 약 4분
Leon A. Gatys
University of Tübingen 연구원
Alexander S. Ecker
연구원
Matthias Bethge
연구원

논문 정보

  • 제목: A Neural Algorithm of Artistic Style
  • 저자: Leon A. Gatys, Alexander S. Ecker, Matthias Bethge (University of Tübingen 등)
  • 학회/저널: arXiv preprint
  • 발행일: 2015-09-02
  • DOI: 10.48550/arXiv.1508.06576
  • 주요 연구 내용: 사전 훈련된 VGG-19 네트워크를 사용하여 이미지의 콘텐츠(Content)와 스타일(Style) 표현을 분리하는 방법을 제안함. 콘텐츠는 네트워크의 상위 계층 피처 맵으로 정의하고, 스타일은 여러 계층에 걸친 피처 맵 간의 상관관계(Gram 행렬)로 정의하여 두 표현을 독립적으로 제어함.
  • 주요 결과 및 결론: 사진의 콘텐츠와 명화의 스타일을 성공적으로 결합하여 높은 지각적 품질의 새로운 예술 이미지를 생성함. 이를 통해 CNN에서 콘텐츠와 스타일 표현이 분리 가능하다는 것을 입증했으며, 이는 인간의 예술 창작 및 인식 과정을 알고리즘적으로 이해하는 경로를 제시함.
  • 기여점: 최초로 자연 이미지에서 콘텐츠와 스타일을 분리하는 이미지 피처를 시연함. 예술적 이미지 생성을 위한 신경망 알고리즘을 제공했으며, 예술 및 스타일에 대한 신경과학적 연구를 위한 새로운 도구를 제시함.