본문으로 건너뛰기

"Explainable artificial intelligence" 태그로 연결된 5개 게시물개의 게시물이 있습니다.

설명가능한 인공지능

모든 태그 보기

Explainable Artificial Intelligence (XAI) for Material Design and Engineering Applications: A Quantitative Computational Framework

· 약 5분
Bokai Liu
연구원
Pengju Liu
연구원
Weizhuo Lu
연구원
Thomas Olofsson
연구원

논문 정보

  • 제목: Explainable Artificial Intelligence (XAI) for Material Design and Engineering Applications: A Quantitative Computational Framework
  • 저자: Bokai Liu, Pengju Liu, Weizhuo Lu, Thomas Olofsson (Department of Applied Physics and Electronics, Umeå University, Umeå, Sweden)
  • 학회/저널: International Journal of Mechanical System Dynamics
  • 발행일: 2025-03-27 (Accepted)
  • DOI: https://doi.org/10.1002/msd2.70017
  • 주요 연구 내용: 본 연구는 재료 설계 및 엔지니어링 응용을 위해 기계학습(ML)과 설명가능 인공지능(XAI)을 통합한 새로운 정량적 계산 프레임워크를 제안함. 이 프레임워크는 데이터 처리, 특징 선택, 모델 훈련, 성능 평가, 설명가능성 분석 및 실제 클라우드 배포를 포함하는 체계적인 파이프라인으로 구성됨.
  • 주요 결과 및 결론: 고성능 콘크리트(HPC)의 압축 강도 예측 사례 연구를 통해 프레임워크를 검증했으며, XGBoost 모델이 R2=0.918R^{2}=0.918로 가장 높은 예측 성능을 달성함. SHAP과 LIME은 특징 중요도와 재료 간 상호작용에 대한 상세한 통찰력을 제공했으며, 훈련된 모델은 클라우드 기반 API로 배포되어 확장성과 접근성을 확보함.
  • 기여점: 기존 ML 접근법의 '블랙박스' 한계를 극복하기 위해 고급 설명가능성 기술을 통합하고, 비선형적 특징 상호작용을 체계적으로 다루며, 확장 가능한 배포 전략을 제공함. 이를 통해 데이터 기반 예측과 근본적인 재료 과학 원리 사이의 간극을 좁히는 해석 가능하고 배포 가능한 AI 기반 재료 정보학 솔루션을 제시함.

Alternative Methods to SHAP Derived from Properties of Kernels: A Note on Theoretical Analysis

· 약 4분
Kazuhiro Hiraki
연구원
Shinichi Ishihara
연구원
Junnosuke Shino
연구원

논문 정보

  • 제목: Alternative Methods to SHAP Derived from Properties of Kernels: A Note on Theoretical Analysis
  • 저자: Kazuhiro Hiraki (International Monetary Fund), Shinichi Ishihara (Independent Researcher), Junnosuke Shino (Waseda University)
  • 학회/저널: 2024 IEEE International Conference on Big Data (Big Data)
  • 발행일: 2024-12-15 (추정)
  • DOI: 10.1109/BigData62323.2024.10825215
  • 주요 연구 내용: 본 연구는 LIME(Local Interpretable Model-agnostic Explanations)의 커널을 이용하여 AFA(Additive Feature Attribution)의 일반적인 분석식을 유도함. 커널에 대칭성 조건을 부과하여, 특정 커널로부터 AFA 값을 분석적으로 계산할 수 있는 일반적인 프레임워크를 제시함.
  • 주요 결과 및 결론: 이 프레임워크를 통해 기존의 AFA 방법론인 SHAP, ES, FESP를 커널 기반으로 재해석하고, LS prenucleolus 개념과 일치하거나 LIME의 커널 속성과 부합하는 새로운 AFA 방법론 4가지를 제안함. 이를 통해 SHAP의 대안이 될 수 있는 설명가능 AI 방법론의 이론적 기반을 확장함.
  • 기여점: LIME의 커널 관점에서 AFA 방법론들을 통합적으로 분석하고 생성할 수 있는 일반화된 분석식을 최초로 유도함. 이를 통해 SHAP, ES 등 기존 방법론들을 커널 기반으로 재정의하고, LIME의 철학에 더 부합하는 새로운 AFA 대안들을 제시하여 설명가능 AI 분야의 이론적 토대를 넓힘.

Explainable AI for Material Property Prediction Based on Energy Cloud: A Shapley-Driven Approach

· 약 5분
Faiza Qayyum
연구원
Murad Ali Khan
연구원
Do-Hyeun Kim
연구원
Hyunseok Ko
연구원
Ga-Ae Ryu
연구원

논문 정보

  • 제목: Explainable AI for Material Property Prediction Based on Energy Cloud: A Shapley-Driven Approach
  • 저자: Faiza Qayyum (Jeju National University), Murad Ali Khan (Jeju National University), Do-Hyeun Kim (Jeju National University), Hyunseok Ko (Korea Institute of Ceramic Engineering and Technology), Ga-Ae Ryu (Korea Institute of Ceramic Engineering and Technology)
  • 학회/저널: Materials
  • 발행일: 2023-11-24
  • DOI: 10.3390/ma16237322
  • 주요 연구 내용: TabNet 딥러닝 프레임워크를 활용하여 PZT(납 지르콘산 티탄산염) 세라믹의 조성 및 공정 데이터를 기반으로 유전율 특성을 예측하는 모델을 개발함. 모델의 예측 결과를 해석하고 입력 변수와 예측 사이의 관계를 이해하기 위해 설명가능 AI(XAI) 기법인 SHAP(Shapley additive explanations) 분석을 수행함.
  • 주요 결과 및 결론: 제안된 TabNet 모델은 기존 머신러닝 모델(XGBoost, Bi-Layered ANN)보다 우수한 성능을 보였으며, 평균 제곱 오차(MSE) 0.047, 평균 절대 오차(MAE) 0.042를 달성함. SHAP 분석을 통해 압전상수(d33), 유전 손실(tangent loss), 화학식이 유전율 예측에 중요한 기여를 하는 반면, 공정 시간은 상대적으로 영향이 적음을 확인함.
  • 기여점: PZT 세라믹 특성 예측을 위해 특화된 새로운 TabNet 기반 딥러닝 프레임워크를 개발함. SHAP 분석을 통해 모델의 예측에 대한 해석 가능성을 높이고, 다양한 입력 파라미터가 예측에 미치는 영향을 심층적으로 분석하여 압전 재료 특성 예측 분야의 신뢰성을 향상시킴.

The emergent role of explainable artificial intelligence in the materials sciences

· 약 5분
Tommy Liu
Australian National University 연구원
Amanda S. Barnard
연구원

논문 정보

  • 제목: The emergent role of explainable artificial intelligence in the materials sciences
  • 저자: Tommy Liu (School of Computing, Australian National University), Amanda S. Barnard (School of Computing, Australian National University)
  • 학회/저널: Cell Reports Physical Science
  • 발행일: 2023-10-18
  • DOI: 10.1016/j.xcrp.2023.101630
  • 주요 연구 내용: 본 논문은 설명가능 인공지능(XAI)의 현황을 검토하고, 재료 정보학 워크플로우를 보강할 수 있는 도구로서 XAI 방법론(내재적, 사후, 데이터-프로세스)을 분류하여 제시함. 특히 재료 과학 분야에서 활용되는 복잡한 블랙박스 모델을 해석하기 위해 모델에 구애받지 않는 사후 분석 기법인 SHAP(Shapley additive explanations)의 중요성을 강조함.
  • 주요 결과 및 결론: XAI는 재료 과학에서 머신러닝 예측을 실제 전략으로 전환하는 데 있어 신뢰성 구축, 인과관계 이해에 필수적임. 특히 섀플리 값(Shapley values)과 같은 XAI 기법의 도입은 모델을 개선하고, 실험 설계를 안내하며, 머신러닝 예측에 기반한 투자 결정을 정당화함으로써 재료 발견을 가속화할 수 있음.
  • 기여점: 재료 과학자들을 위한 XAI 활용 실용 가이드를 제공하며 물리 과학 분야와 가장 관련성이 높은 방법들을 조명함. 복잡한 머신러닝 예측과 과학적 이해 사이의 간극을 메우고, 재료 정보학에서 모델 검증과 과학적 방법의 가속화에 있어 XAI의 역할을 제시함.

Explainable machine learning in materials science

· 약 6분
Xiaoting Zhong
연구원
Brian Gallagher
연구원
Shusen Liu
연구원
Bhavya Kailkhura
연구원
Anna Hiszpanski
연구원
T. Yong-Jin Han
연구원

논문 정보

  • 제목: Explainable machine learning in materials science
  • 저자: Xiaoting Zhong, Brian Gallagher, Shusen Liu, Bhavya Kailkhura, Anna Hiszpanski, T. Yong-Jin Han (Lawrence Livermore National Laboratory)
  • 학회/저널: npj Computational Materials
  • 발행일: 2022-09-22
  • DOI: 10.1038/s41524-022-00884-7
  • 주요 연구 내용: 재료과학 분야에서 높은 정확도를 가진 머신러닝 모델의 블랙박스 문제를 해결하기 위한 설명 가능 인공지능(XAI)의 개념과 기술을 소개함. 모델 처리 과정(후처리)과 모델 설계(선행) 측면에서 DNN을 설명하는 다양한 방법을 분류하고, 실제 재료과학 응용 사례를 검토함.
  • 주요 결과 및 결론: 재료과학 연구에서 XAI 기술, 특히 히트맵과 같은 시각화 기법이 모델 예측을 신뢰하고, 모델의 오류 원인을 진단하며, 새로운 과학적 가설을 생성하는 데 효과적임을 보여줌. 또한, XAI가 아직 초기 단계이며 재료과학 데이터의 명확한 정답(ground truth) 부족, 설명 평가의 어려움 등 해결해야 할 과제가 많음을 지적함.
  • 기여점: 재료과학 분야 연구자들에게 XAI에 대한 입문서 역할을 제공하며, 예측 정확도뿐만 아니라 설명 가능성을 원하는 이들에게 유용한 개념적 틀과 실제 적용 사례를 제시함. 논문은 XAI 기술의 유용성을 강조하는 동시에, 무분별한 해석을 피하고 적절한 평가의 필요성을 역설함.