Skip to main content

3 posts tagged with "Reinforcement learning"

강화학습

View All Tags

Optimization of spinning processes in textile manufacturing using reinforcement learning

· 4 min read
Seyed Mohammad Mehdi Sajadieh
연구원
Hye Kyung Choi
성균관대학교 연구원
Whan Lee
성균관대학교 연구원
Sang Do Noh
성균관대학교 교수

논문 정보

  • 제목: Optimization of spinning processes in textile manufacturing using reinforcement learning
  • 저자: SMM Sajadieh, Hye Kyung Choi, Whan Lee, Sang Do Noh (Sungkyunkwan University), Seung bum Sim (Korea Textile Development Institute)
  • 학회/저널: IISE Annual Conference & Expo 2024
  • 발행일: 2024-05-18
  • DOI: 10.21872/2024IISE_6980
  • 주요 연구 내용: 기존 회귀 모델을 기반으로 보상 계산을 수행하는 Q-러닝 알고리즘을 제안하여 섬유 방사 공정을 최적화함. 이 데이터 기반 접근법은 공정 변수를 자동으로 조정하여 원하는 강도와 신율을 가진 섬유를 생산하는 최적의 레시피를 추천함.
  • 주요 결과 및 결론: 실제 방사 공정 데이터에 제안된 알고리즘을 적용하여, 사전 경험이 없는 고강도 섬유 생산을 위한 22개의 최적 공정 레시피를 도출함. 검증 결과, 86%의 정확도를 달성하며 제안 방법의 실용적 효용성을 입증함.
  • 기여점: 기존의 전문가 경험이나 시행착오에 의존하던 방사 공정 최적화를 데이터 기반 강화학습으로 대체함. 이를 통해 생산 비용과 시간을 절감하고, 지능형 제조 기술의 학술적, 산업적 이해와 적용을 촉진하는 방법론을 제시함.

Application of Reinforcement Learning to Dyeing Processes for Residual Dye Reduction

· 5 min read
Whan Lee
성균관대학교 연구원
Seyed Mohammad Mehdi Sajadieh
연구원
Hye Kyung Choi
성균관대학교 연구원
Jisoo Park
연구원
Sang Do Noh
성균관대학교 교수

논문 정보

  • 제목: Application of Reinforcement Learning to Dyeing Processes for Residual Dye Reduction
  • 저자: Whan Lee, Seyed Mohammad Mehdi Sajadieh, Hye Kyung Choi, Jisoo Park, Sang Do Noh (Sungkyunkwan University)
  • 학회/저널: International Journal of Precision Engineering and Manufacturing-Green Technology
  • 발행일: 2024-04-16
  • DOI: 10.1007/s40684-024-00627-7
  • 주요 연구 내용: 실제 생산 시설에서 수집한 데이터를 활용하여 잔류 염료 배출을 예측하는 Gradient Boosting(GB) 모델과, 잔류 염료를 최소화하기 위한 공정 변수를 추천하는 Q-learning 기반의 강화학습 모델(DPRM)을 개발함.
  • 주요 결과 및 결론: 개발된 예측 모델은 R2R^2 값 0.96의 높은 예측 성능을 보였으며, 공정 변수 추천을 통해 평균 66.58%의 잔류 염료 감소를 달성함. 실제 현장 실험을 통해 두 가지 처방에서 각각 42.92%와 76.33%의 잔류 염료 감소 효과를 검증함.
  • 기여점: 고가의 추가 장비나 화학물질 없이, 데이터 기반의 강화학습 접근법을 통해 염색 공정의 잔류 염료 발생을 효과적으로 예측하고 줄이는 혁신적인 방법을 제안하여 친환경 공정 운영에 기여함.

Mastering the game of Go with deep neural networks and tree search

· 6 min read
David Silver
Google DeepMind 연구원
Aja Huang
연구원
Chris J. Maddison
연구원
Arthur Guez
연구원
Laurent Sifre
연구원
George van den Driessche
연구원
Thore Graepel
연구원

논문 정보

  • 제목: Mastering the game of Go with deep neural networks and tree search
  • 저자: David Silver 외 (Google DeepMind)
  • 학회/저널: Nature
  • 발행일: 2016-01-28
  • DOI: 10.1038/nature16961
  • 주요 연구 내용: 바둑판의 국면을 평가하는 가치망(value network)과 다음 수를 선택하는 정책망(policy network)이라는 두 개의 심층 신경망을 몬테카를로 트리 탐색(MCTS)과 결합한 새로운 접근법을 제안함. 신경망은 인간 전문가의 기보를 이용한 지도 학습과 알파고 자체 대국을 통한 강화 학습의 조합으로 훈련됨.
  • 주요 결과 및 결론: 개발된 프로그램 알파고(AlphaGo)는 다른 주요 바둑 프로그램들을 상대로 99.8%의 압도적인 승률을 기록했으며, 당시 유럽 챔피언이었던 판후이 프로 2단을 5대 0으로 이김. 이는 컴퓨터 프로그램이 정식 크기의 바둑판에서 인간 프로 기사를 상대로 거둔 최초의 승리임.
  • 기여점: 인간 전문가의 기보를 활용한 지도 학습과 자체 대국 기반의 강화 학습을 결합한 혁신적인 신경망 훈련 파이프라인을 구축함. 심층 신경망을 통해 바둑의 복잡한 국면 평가와 수 선택 문제를 해결하고, 이를 효율적으로 몬테카를로 트리 탐색과 통합하여 인간 최고 수준의 기력을 달성함.