728x90
1.할루시네이션(Hallucination)
인공지능 모델(특히 자연어 처리 모델)이 사실이 아니거나 근거가 없는 정보를 생성하거나 질문과 상관없는 잘못된 답변을 만들어내는 현상을 말한다. 그럴듯하지만 사실이 아닌 정보를 AI가 생성해내며 이경우 AI가 자신감있게 정보를 말하기 때문에 사용자는 잘못된 정보를 얻을수있다.
2.Hallucination 방지
사용자 입장에서 이런 Hallucination을 방지하기 위해서는 입력을 좀더 자세하게 해야할 필요가있다.
질문의 범위를 제한하거나 구체적이고 추가 검증과정을 거치는것이 좋다.
728x90
'AI' 카테고리의 다른 글
[AI] 지도 학습(Supervised Learning)이란? (0) | 2024.12.27 |
---|---|
[AI] 원핫 인코딩(One-Hot Encoding) (2) | 2024.12.26 |
[AI] 정제(Cleaning), 어간 추출(Stemming), 불용어(StopWord) (2) | 2024.12.26 |