AI 오작동에 대해 디자이너가 알아야 할 점

AI 환각: 디자이너가 알아야 할 점

AI의 잘못된 응답은 믿을 수 있어 보이지만 사용자 불신과 설계 문제를 야기합니다. 신뢰할 수 있는 사용자 인터페이스 패턴을 통해 사용자가 이 허구를 식별할 수 있도록 지원하는 방법을 알아보세요.

AI 환각이란 무엇인가?

생성형 인공지능(AI)은 진실하지 않은 답변이나 말도 안 되는 이미지를 생성하는 것으로 알려져 있습니다. '환각'은 생성형 AI 시스템이 그럴 듯하지만 잘못되거나 무의미한 출력 데이터를 생성할 때 발생합니다. 이러한 환각은 사실에 기반하지 않은 잘못된 진술이나 왜곡된 이미지로 포함됩니다. 이러한 출력물은 종종 자신감 있게 표현되어 사람들이 식별하기 어렵습니다. 예를 들어, ChatGPT는 평판 좋은 저널리즘 사이트의 인용구의 76%를 부정확하게 인용했습니다. LexisNexis와 Thomson Reuters와 같은 특화된 도구도 상당한 양의 잘못된 정보를 생성했습니다.

왜 환각이 발생할까?

생성형 AI는 언어를 이해하지 못한 채 노래를 배운 사람과 유사하게 작동합니다. 이는 의미에 대한 깊은 이해 없이 대규모 데이터셋에서 패턴을 인식합니다. 이러한 통계적 접근은 일반적인 시퀀스에서 벗어난 프롬프트가 주어질 때 환각적 출력을 초래합니다. AI 시스템은 방대한 양의 학습 데이터를 필요로 하며, 이는 종종 오류가 포함될 수 있습니다. 한 예로, 구글의 AI 개요 기능이 돌을 먹는 것에 관한 풍자 기사를 사실로 잘못 해석한 사례가 있습니다.

환각 제거의 어려움

환각은 현대 AI의 작동 방식에 내재된 문제로, 엔지니어에게 도전적인 과제를 던집니다. AI 출력에 영향을 미치는 내장 설정을 조정함으로써 환각을 줄이는 데 진전이 있었습니다. 예를 들어, 모델의 무작위성을 조절하는 온도를 조정하는 방법이 있지만, 이러한 조정만으로 환각을 완전히 제거할 수는 없습니다. 사용자 프롬프트를 지식 기반과 교차 참조한 후 출력을 생성하는 retrieval-augmented generation 분야의 연구도 일부 성공을 거두었지만, 문제를 완전히 해결하지 못했습니다.

제품 디자인 선택으로 환각 관리하기

사용자 신뢰를 구축하고 AI의 한계를 인식하기 위해 제품 팀은 AI 시스템의 제한을 인정하는 디자인 기능을 구현할 수 있습니다. 많은 생성형 AI 제품은 오류를 최소한으로 인정하며, 이는 사용자 행동에 큰 영향을 미치지 않을 수 있습니다.

사용자에게 불확실성 전달하는 솔루션

  • 고의적인 불확실한 언어 사용: "정확히 확신할 수 없습니다"와 같은 응답은 사용자 이해를 높일 수 있습니다.
  • 예측에 대한 설명 가능한 요소: AI 예측에 영향을 미치는 요소에 대한 세부 정보를 제공함으로써 불확실성을 전달할 수 있습니다.
  • 신뢰도 등급 표시: 중대한 분야에서는 모델의 신뢰도 등급을 출력과 함께 표시하여 사용자가 신뢰성을 평가할 수 있습니다.
  • 다수의 응답: 동일한 프롬프트에 대한 다수의 응답을 생성해 불일치를 강조하여 환각 가능성을 신호화할 수 있습니다.
  • 출처 표시: 명확한 형태로 데이터의 출처를 제공함으로써 검증을 장려하고 정보에 근거한 의사 결정을 지원합니다.

요약

AI 환각은 AI 시스템에 대한 신뢰를 보장하려는 디자이너에게 중대한 도전을 제공합니다. 그 영향을 완화하기 위해, 디자이너는 불확실성을 투명하게 전달하고 사용자의 검증을 장려하는 전략을 채택할 수 있습니다. 신뢰도 지표, 정보 전달 언어, 일관된 출력 및 출처 가시성 같은 방법은 사용자 경험을 향상시키고 AI 기능에 대한 신뢰를 증진할 수 있습니다.

출처 : 원문 보러가기

Leave a Comment