• 최종편집 2024-05-03(금)
 

artificial-intelligence-7834467_1280.jpg

 

ChatGPT, ‘지피지기면 백전불태’다!


ChatGPT와 같은 언어 생성 모델에는 다음과 같은 단점이 있다.

 

1.  정보제공의 한계:  ChatGPT는 훈련 데이터셋에서 학습한 정보를 바탕으로 응답을 생성한다. 이 모델은 인터넷에 연결되어 있지 않으며 실시간 정보에 접근할 수 없다. 특히나 스스로 새로운 정보를 찾아서 학습할 수 없다. 이는 모르는 것이 있으면 스스로 정보를 찾거나 전문가에게 물어보는 등 인간의 행동과는 차이가 있다.

 

2. 문맥을 이해하지 못한다:  ChatGPT는 때때로 주어진 문맥을 완벽하게 이해하지 못할 수 있다. 특히 긴 대화에서 이전의 메시지를 잊거나 일관성을 유지하는 데 어려움이 있을 수 있다. 특히 대화나 문맥 속 숨겨진 의미를 찾지 못하는 경우가 있다.  ChatGPT는 특히 거시기, 충분히, 적당히 등 뜻이 분명하지 않는 단어는 이해를 못한다. 이는 대화나 문맥 속 숨겨진 의미를 찾을 수 있는 인간과는 차이가 있는 부분이다.

 

3. 객관성과 편향성문제: ChatGPT는 사용된 훈련 데이터의 편향성을 반영할 수 있다. 이것은 예측된 문장이 편향적이거나 객관적이지 않게 될 수 있음을 의미한다. 이는 ChatGPT는 검색한 정보가 잘못된 정보인지 아닌지 판단하지 못하는 것과 연결되어 있다. 즉, ChatGPT는 인간처럼 스스로 찾은 정보가 정확한지 아닌지 판잔 할 수 없다는 것이다.

 

4. 생각이나 감정을 가지지 못한다: ChatGPT는 사람처럼 생각하거나 감정을 느낄 수 없다. 이 모델은 기계 학습 알고리즘을 기반으로 하며, 인간의 경험, 감정, 자발적인 생각을 표현할 수 없다. ChatGPT를 포함한 현재 인공지능은 ‘폰 노이만 컴퓨터’에 최적화된 인공지능으로, ‘폰 노이만 컴퓨터’는 태생적으로 계산과 검색에 특화된 컴퓨터이기 때문에 생각이나 감정을 가지지 못한다.

 

5. 창의성과 복잡한 추론: ChatGPT가 결과물을 생성할 수 있지만, 이는 과거 데이터의 패턴을 기반으로 한 것이다. 실제로 새로운 아이디어를 창조하거나 복잡한 문제를 해결하는 데에는 한계가 있다. 예를 들어 컴퓨터, 전화, MP3 플레이어를 합쳐서 스마트 폰을 만드는 것처럼 기존에 있던 것을 조합해 새로운 것을 만들지 못한다. 이것은 인간처럼 생각이나 감정으로 가지지 못하기 때문이다. ChatGPT는 기존의 자료를 짜깁기 하는 것에 불과하기 때문이다.

 

 6. 민감한 정보 처리문제: ChatGPT는 개인 정보나 회사 기밀 등 민감한 정보를 저장하거나 처리하지 않는다. 그러나 사용자가 이런 것을 공유하면, 이러한 정보는 채팅의 문맥 내에서 계속 사용될 수 있다. 이는 실수로 민감한 정보가 노출될 수 있음을 의미한다. ChatGPT는 스스로 이것을 삭제하거나 파기하는 능력을 가지고 있지 않다는 것이다.

 

이와 같은  ChatGPT의 단점을 알고 사용해야 사용자가 ChatGPT를 맹신하지 않고 보다 효율적으로 사용할 수 있다.

차석호 칼럼니스트 기자 newswalk@naver.com 이 기자의 다른 기사 보기

전체댓글 0

  • 84979
비밀번호 :
메일보내기닫기
기사제목
[차석호 칼럼] ChatGPT, ‘지피지기면 백전불태’다!
보내는 분 이메일
받는 분 이메일