취준생대상

머신러닝의 성능평가는 어떻게 했나요? - 면접질문

Pro.Dev 2025. 3. 25. 09:47
반응형

"머신러닝 모델 학습 후 성능 평가를 어떻게 하셨나요??"


1. 분류 문제(Classification)의 경우에는 정확도(Accuracy) 외에도 데이터의 특성에 따라 다양한 지표를 사용했습니다.
예를 들어, 클래스 불균형 문제가 있을 때는 정밀도(Precision), 재현율(Recall), F1-score, ROC-AUC 같은 지표를 확인했습니다.

이전 프로젝트에서 스팸 메일 분류 모델을 만들었을 때, 단순 정확도가 높지만 재현율이 낮아서 실제로는 스팸을 잘 잡지 못하는 이슈가 있었어요. 그래서 재현율 중심으로 모델을 튜닝하거나 Threshold를 조정하는 등의 작업을 했습니다.

 

 

2. 회귀 문제(Regression)에서는 주로 MSE(Mean Squared Error), RMSE, MAE(Mean Absolute Error), R²(결정계수) 같은 지표를 사용했습니다.

예를 들어, 주택 가격 예측 프로젝트를 했을 때, MSE와 RMSE를 중심으로 과적합 여부를 확인했고, Validation set과 비교하면서 성능을 확인했습니다. 그리고 과적합 시 Regularization(L1/L2)을 적용해 보거나 모델 복잡도를 조절하는 시도도 해봤습니다.

문제 유형에 따라 적절한 평가지표를 설정하는 게 중요하다고 생각해서 항상 프로젝트 시작 단계에서 어떤 지표를 쓸지 팀원들과 상의했습니다.

반응형