• 최종편집 2024-12-13(금)

오피니언
Home >  오피니언  > 

실시간뉴스
  • 차석호 칼럼,"ChatGPT도 완벽한 것은 아니다"
    인간은 신이 아니기에 완벽할 수는 없다. 그래서 실수를 하고 이를 통해 배우는 것이다. 살아오면서 실수를 한 번도 한 적이 없는 사람은 없다는 것이 이를 잘 보여준다. 4차 산업혁명 시대의 핵심인 ‘인공지능’ 또한 마찬가지다. 인공지능이 탑재된 것은 기본적으로 기계다. 기계도 사람이 만든 것이라 완벽하지는 않다. 자동차나 컴퓨터 같은 기계에서 오류가 나오는 것도 완벽하지 않은 인간이 만든 것이기 때문이다. 기계뿐만 아니라 기계를 움직이게 하는 소프트웨어도 마찬가지다. 아무리 좋은 소프트웨어라도 오류가 발생하기 마련이다. 이 말은 인공지능 또한 완벽할 수 없다는 것이다. 최근 이슈가 되는 ChatGPT도 인간이 만든 것이라 한계가 있을 수밖에 없다. 인간처럼 대화하는 인공지능을 만든다고 하더라도 모든 것을 인공지능에 넣을 수는 없다. 특히 지금의 컴퓨터 시스템에서는 더더욱 그렇다. 지금의 컴퓨터 시스템이 나온 것은 1952년이다. 이때는 폰 노이만이 최초의 ‘프로그램 내장형 컴퓨터’라고 부르는 ‘에드박’이 나온 시기다. ‘에드박’은 최초로 2진법 체계를 사용한 컴퓨터고, 프로그램을 메모리에 저장하고 순차적으로 실행하는 방법은 지금의 컴퓨터와 동일하다. 그래서 ‘에드박’ 이후의 모든 컴퓨터를 ‘폰 노이만 컴퓨터’라고 부르는 것이다. 즉, 컴퓨터는 1952년 이후 변한 것이 하나도 없다는 것이다. 물론 초창기 운영체제는 CUI(Character User Interface)였다. CUI는 명령어를 직접 입력해서 실행하는 방식이다. Windows 95 이후로 GUI(Graphical User Interface)가 대세가 되었다. GUI는 아이콘을 클릭하면 실행되는 방식이다. 이것만 크게 변했을 뿐 구동하는 방식은 변한 것이 없다. 게다가 ‘에드박’ 이후의 컴퓨터는 할 줄 아는 것이 ‘연산’밖에 없다. 여기서 ‘연산’은 덧셈/뺄셈/곱셈/나눗셈을 하는 산술연산과 yes/no를 판단하는 논리연산으로 이루어져 있다. 이처럼 ‘폰 노이만 컴퓨터’에서 구동되는 인공지능은 한계가 있다. 논리연산으로는 생각하는 것이 불가능하다. 그래서 ChatGPT를 통해 ‘스티브 잡스에 대해서 어떻게 생각하느냐?’라는 질문이나 ‘가장 좋아하는 패스트푸드점은 뭐냐?’는 제대로 된 답을 못한다. 물론 ChatGPT는 생각, 의견, 취향은 말할 수 없다.‘한다. 하지만 이것은 인간이 하는 답이 아니다. 인간은 개인마다 생각과 취향이 다르기에 여러 가지 답이 나올 수 있는데, 인공지능은 100개의 기계가 있으면 동일한 답이 나온다. 생각, 의견, 취향을 묻는 질문에서 보듯 생각을 해야 되는 질문에 답을 못하는 것은 결국 지금의 인공지능이 ‘폰 노이만’의 틀을 벗어나지 못했기 때문이다.
    • 주요뉴스
    2023-06-30
  • [차석호 칼럼] ChatGPT, ‘지피지기면 백전불태’다!
    ChatGPT, ‘지피지기면 백전불태’다! ChatGPT와 같은 언어 생성 모델에는 다음과 같은 단점이 있다. 1. 정보제공의 한계: ChatGPT는 훈련 데이터셋에서 학습한 정보를 바탕으로 응답을 생성한다. 이 모델은 인터넷에 연결되어 있지 않으며 실시간 정보에 접근할 수 없다. 특히나 스스로 새로운 정보를 찾아서 학습할 수 없다. 이는 모르는 것이 있으면 스스로 정보를 찾거나 전문가에게 물어보는 등 인간의 행동과는 차이가 있다. 2. 문맥을 이해하지 못한다: ChatGPT는 때때로 주어진 문맥을 완벽하게 이해하지 못할 수 있다. 특히 긴 대화에서 이전의 메시지를 잊거나 일관성을 유지하는 데 어려움이 있을 수 있다. 특히 대화나 문맥 속 숨겨진 의미를 찾지 못하는 경우가 있다. ChatGPT는 특히 거시기, 충분히, 적당히 등 뜻이 분명하지 않는 단어는 이해를 못한다. 이는 대화나 문맥 속 숨겨진 의미를 찾을 수 있는 인간과는 차이가 있는 부분이다. 3. 객관성과 편향성문제: ChatGPT는 사용된 훈련 데이터의 편향성을 반영할 수 있다. 이것은 예측된 문장이 편향적이거나 객관적이지 않게 될 수 있음을 의미한다. 이는 ChatGPT는 검색한 정보가 잘못된 정보인지 아닌지 판단하지 못하는 것과 연결되어 있다. 즉, ChatGPT는 인간처럼 스스로 찾은 정보가 정확한지 아닌지 판잔 할 수 없다는 것이다. 4. 생각이나 감정을 가지지 못한다: ChatGPT는 사람처럼 생각하거나 감정을 느낄 수 없다. 이 모델은 기계 학습 알고리즘을 기반으로 하며, 인간의 경험, 감정, 자발적인 생각을 표현할 수 없다. ChatGPT를 포함한 현재 인공지능은 ‘폰 노이만 컴퓨터’에 최적화된 인공지능으로, ‘폰 노이만 컴퓨터’는 태생적으로 계산과 검색에 특화된 컴퓨터이기 때문에 생각이나 감정을 가지지 못한다. 5. 창의성과 복잡한 추론: ChatGPT가 결과물을 생성할 수 있지만, 이는 과거 데이터의 패턴을 기반으로 한 것이다. 실제로 새로운 아이디어를 창조하거나 복잡한 문제를 해결하는 데에는 한계가 있다. 예를 들어 컴퓨터, 전화, MP3 플레이어를 합쳐서 스마트 폰을 만드는 것처럼 기존에 있던 것을 조합해 새로운 것을 만들지 못한다. 이것은 인간처럼 생각이나 감정으로 가지지 못하기 때문이다. ChatGPT는 기존의 자료를 짜깁기 하는 것에 불과하기 때문이다. 6. 민감한 정보 처리문제: ChatGPT는 개인 정보나 회사 기밀 등 민감한 정보를 저장하거나 처리하지 않는다. 그러나 사용자가 이런 것을 공유하면, 이러한 정보는 채팅의 문맥 내에서 계속 사용될 수 있다. 이는 실수로 민감한 정보가 노출될 수 있음을 의미한다. ChatGPT는 스스로 이것을 삭제하거나 파기하는 능력을 가지고 있지 않다는 것이다. 이와 같은 ChatGPT의 단점을 알고 사용해야 사용자가 ChatGPT를 맹신하지 않고 보다 효율적으로 사용할 수 있다.
    • 주요뉴스
    2023-06-15
  • 차석호 칼럼,"ChatGPT는 만능이 아니다"
    ChatGPT는 만능이 아니다 GPT-3.5 기반의 ChatGPT가 등장하자 많은 사람이 놀라움을 금치 못했다. ChatGP와 채팅을 통해 주고받은 답변을 보면 인간이 하는 것과 거의 유사했다. ‘Who is the famous Korean football Player?’이라는 질문을 했을 때 ChatGPT는 ‘Son Heung-min’이라고 답했다. 게다가 손흥민이 왜 가장 유명한 한국인 축구선수인지 그 근거도 같이 제시했다. 이 정도면 인간이 하는 것과 유사하다. 이것만 보면 인공지능이 인간과 비슷한 능력을 갖춘 것 아니냐는 생각을 가질 수도 있다. 결론부터 말하자면 ‘No’다. ‘가장 유명한 한국인 축구선수가 누구냐?’는 질문에는 ‘손흥민’이라는 답과 그 근거를 제시했지만 ‘How do you think about Son Heung-min?’이라는 질문에는 ‘As an AI language model, I don't have personal thoughts or emotions’ 즉, ‘인공지능 언어 모델로서, 나는 개인적인 생각이나 감정이 없다’라는 말로 시작한다. 그리고 뒤에 오는 문장은 손흥민에 대한 정보들이지 개인적인 생각이 아니다. ChatGPT가 답했듯이 인공지능은 자신의 생각이나 의견을 말할 수 없는 것이다. 그렇다면 이 질문 말고 다는 질문은 어떻게 답할까? ChatGPT에게 ‘What is the best fast food restaurant?’이라는 질문을 했을 때, ‘As an AI language model, I do not have personal preferences or opinions.’라는 문장으로 시작하는 답변을 했다. 우리말로 번역하면 ’인공지능 언어 모델로서, 나는 개인적인 선호나 의견이 없다‘라는 말이다. 그 뒤에는 ‘However, some of the most popular fast food chains globally are McDonald's, KFC, Subway, Burger King, and Taco Bell.’이라고 나온다. 세계적으로 유명한 페스트푸드 체인을 이야기한다. 이처럼 개인적인 취향을 묻는 질문에는 ChatGPT가 제대로 답변하지 못한다. 이런 이유는 기본적으로 인공지능이 인간처럼 생각할 수 없기 때문이다. 인공지능은 학습된 빅 데이터에서 자료를 가져올 뿐 자신만의 생각이 없는 것이다. 기본적으로 나만의 생각이 있어야 내 생각, 내 의견, 내 취향을 말할 수 있는 것이다. 100명의 사람에게 취향을 물어보면 100개의 답이 나오지만 인공지능은 100개의 기계가 있으면 동일한 답이 나온다. 이런 것을 보면 ChtGPT는 놀라운 것이긴 하지만 맹신하면 안 된다는 것이다.
    • 주요뉴스
    2023-06-07
  • 차석호 칼럼,"ChatGPT를 능동적으로 활용하려면"
    ChatGPT를 능동적으로 활용하려면 ChatGPT는 ‘양날의 검’입니다. 어떻게 활용하느냐에 따라 약이 될 수도 있고, 독이 될 수도 있습니다. ChatGPT가 나에게 약이 되기 위해서는 어떻게 사용해야 될까요? ChatGPT를 사용하기 전에 ChatGPT는 기본적으로 인간이 만든 것이라 단점 또한 존재합니다. ChatGPT가 만능이라고 여기는 사람이 있는데, ChatGPT는 결코 만능이 될 수는 없습니다. 또한 ChatGPT 사용에는 표절 이유가 항상 따라다닙니다. 학교에서 ChatGPT로 과제를 했다가 0점 처리당한 것이 대표적입니다. ChatGPT를 활용하면 분명 편리한 점은 있지만 부작용 또한 따라다닙니다. 그래서 ChatGPT는 능동적으로 사용하는 것이 나에게 약이 되는 것입니다. ChatGPT가 약이 되기 위해서는 ChatGPT를 활용하되 이것을 나만의 것으로 만들어야 합니다. 이것은 창의력과 연결되는 것이기도 합니다. 인간과 동물, 인간과 인공지능을 구분 짓는 가장 큰 것이 창의력입니다. 창의력은 지금까지 없던 새로운 것을 만드는 것이 아니라 기존의 것을 응용해서 새로운 것을 만드는 것을 의미합니다. ‘모방은 창조의 어머니’라는 말이 괜히 나온 것이 아닙니다. 기존의 것을 가지고 재해석해서 나만의 방식으로 새로운 것을 만드는 것이 창조입니다. 창조는 ‘다르게 생각하는 것’에서 나옵니다. ChatGPT가 답변을 제대로 못 하는 부분이 생각, 의견, 취향, 경험에 관한 것입니다. 이것은 인간이라면 쉽게 답을 하고, 100명에게 묻는다면 100가지 답이 나올 수 있습니다. 하지만 ChatGPT는 기계 100개가 있으면 동일한 답을 합니다. 이것이 인간과 인공지능의 결정적인 차이입니다. ChatGPT는 기본적으로 빅데이터에 있는 것을 가지고 와서 답변을 해 줍니다. 아무리 우리가 디테일하게 질문을 한다고 해도 그렇습니다. 이 말은 나만의 방법을 찾아주는 것이 아니라 빅데이터에 있는 것을 그냥 가지고 오는 것입니다. 이것은 가장 초보적으로 ChatGPT를 활용하는 방법입니다. ChatGPT를 활용해 자료를 찾고 그것을 바탕으로 매 것을 만들기 위해서는 반드시 나만의 방법이 들어가야 합니다. 그러기 위해서는 반드시 ChatGPT는 주관을 가지고 사용을 해야 합니다. ChatGPT는 양날의 검입니다. 효과적으로 사용하기 위해서는 참고는 하되 내 것으로 만드는 것이 중요합니다. 2012년 런던 올림픽 체조 금메달리스트 양학선 선수가 여홍철 선수의 여2를 바탕으로 자신만의 기술인 양1을 만든 것처럼 기존의 것을 바탕으로 해서 나만의 것을 만들어야 합니다.
    • 주요뉴스
    2023-06-02

실시간 기사

  • [뉴스워크 차석호 칼럼]인간과 컴퓨터의 첫 대결은 언제였을까?
    인간과 컴퓨터의 대결하면 가장 많이 떠오르는 것이 지난 2016년 3월에 있었던 이세돌 9단과 알파고간의 바둑대결일 것이다. 이 대결은 인간과 인공지능이 대결이기도 한데, 인공지능도 컴퓨터를 베이스로 하기 때문에 인간과 컴퓨터의 대결이기도하다. 이세돌 9단과 알파고 이전에도 인간과 컴퓨터의 대결이 있었다. 1996년에는 체스 세계 챔피언인 가리 가스파로프와 딥불루의 체스 대결이 있었지만 이 역시 인간과 컴퓨터의 첫 대결은 아니다. 인간과 컴퓨터의 첫 대결은 1952년으로 거슬러 올라간다 1952년 인간과 컴퓨터간의 첫 대결 주인공은 요한 루드비히 폰 노이만(미국식으로는 존 폰 노이만)과 그가 만든 에드박(EDVAC)이다. 참고로 에드박은 이후에 나온 모든 컴퓨터의 조상이다. 에드박에서 채택된 프로그램 내장방식과 산술연산, 논리연산은 모든 컴퓨터에 적용되어 있다. 이 대결은 ‘천의 자리가 7이 되는 2의 n제곱을 구하는 문제(2의 21제곱 = 2,097,152)였는데 폰 노이만이 승리했다. 물론 폰 노이만이 천재중의 천재인 것도 있지만 인간이 이겼다는 점에서 대한 것이었다. 참고로 폰 노이만에 관한 일화가 있는데 대륙간 탄도미사일을 개발하는데 계산이 맞는지를 판단하기 위해 개발자가 폰 노이만을 찾았다. 이때 그 중 한명이 수천페이지분량을 자료를 보여주며 몇 주후에 오면 되겠냐고 물었는데, 폰 노이만은 잠시만 앉아 있으라고 말을 했다. 2시간가량 지난 후 폰 노이만은 수식에 문제가 없다고 말했다. 이 일화에서 보듯 폰 노이만은 최고의 천재가 맞다. 이런 천재가 컴퓨터와 대결을 해서 이긴 것이 이상할 것은 없었다. 이 대결이 끝난 후 폰 노이만은 자신이 만든 컴퓨터에 만족했다고 한다. 1963년 노벨 물리학상을 탄 유진 와그너에게 한 기자가 “헝가리에는 왜 뛰어난 천재가 많습니까?”라는 질문을 했는데 그의 대답이 걸작이었다. 그의 대답은 “천재가 많다니요? 천재는 오직 폰 노이만 한 사람 뿐입니다.”라고 말했다. 폰 노이만은 수학뿐만 아니라 물리학, 컴퓨터과학 등 다방면에서 뛰어난 능력을 보였다는 점에서 특정한 한 영영에서 뛰어난 능력을 보인 다른 천재와는 비교가 되지 않는다. 이 때문에 맨해튼 계획에 참여한 과학자 중 유일하게 자유롭게 출입이 가능했던 것이다.(폰 노이만 다방면에서 뛰어났기 때문에 여러 곳에서 관여를 했다.) 물론 에드박이 지금의 컴퓨터와 비교해 성능이 떨어진다는 점과 에드박이 대결한 인간이 최고의 천재 폰 노이만이어서 이겼을 것이라 생각을 하는 사람이 있는데 이는 맞는 말이다. 그렇다 하더라도 이 대결이 있었기에 1996년의 가리 가스파로프와 딥 블루간의 체스대결, 2016년의 이세돌 9단과 알파고 간의 바둑대결을 할 수 있었던 것이다. 그런 점에서 1952년 폰 노이만과 에드박의 대결은 의미가 있는 것이다.
    • 주요뉴스
    2023-07-20
  • 차석호 칼럼,"인간과 인공지능의 학습 방법 차이는"
    인간의 학습과 인공지능의 학습이 비슷하다고 생각하지만 이 둘은 몇 가지 주요한 방면에서 차이가 있다. 1. 학습 방법: 인간은 경험, 상호작용, 반복, 시행착오를 통해 학습한다. 인간의 학습은 일반적으로 복잡하고 다양한 과정을 거치며, 감성적인 요소와 직관, 창의성을 포함한다. 반면에 인공지능은 알고리즘과 데이터를 기반으로 학습한다. 주로 대규모 데이터 세트를 분석하여 패턴을 찾고, 이 패턴을 사용하여 예측하거나 결정을 내린다. 인간은 스스로 데이터를 만들지만 인공지능은 스스로 데이터를 만들 수 있다. 2. 전이 학습: 인간은 한 영역에서 배운 지식을 다른 영역에 적용하는 능력이 있다. 예를 들어, 수학적 개념을 배운 후에는 이를 물리학, 공학, 경제학 등 다른 분야에 적용할 수 있다. 이를 전이 학습이라고 한다. 반면에 현재의 인공지능 기술은 이러한 전이 학습을 제한적으로만 수행할 수 있다. 대부분의 AI 시스템은 특정 작업에 특화되어 있으며, 한 영역에서 학습한 내용을 다른 영역에 적용하는 능력이 제한적이다. 즉, 인간은 한 영역에서 배운 지식을 다른 영역과 융합하는 것이 가능하지만 인공지능은 불가능하다. 3. 일반화 능력: 인간은 특정한 케이스를 경험하고 이를 일반화하여 유사한 상황에서 적용할 수 있다. 이런 방식으로, 우리는 새로운 상황에도 대처할 수 있게 된다. 하지만, 인공지능은 주로 학습한 데이터에 대해 잘 작동하며, 학습되지 않은 새로운 상황에 대한 일반화 능력이 제한적이다. 괜히 ‘유비무환’이라는 말이 있는 것이 아니다. 인간은 유사한 케이스를 통해 내가 직면한 상황에 적용할 수 있지만 인공지능은 그렇게 할 수 없다. 4. 학습 속도와 용량: 인공지능은 초당 수천에서 수백만 건의 데이터를 처리하고 학습할 수 있으나, 인간의 학습 속도는 훨씬 느리다. 또한, 인공지능은 필요한 한 대량의 데이터를 저장하고 처리할 수 있지만, 인간의 기억 용량은 한정적이다.5. 감성과 창의성: 인간의 학습은 감성적인 요소와 창의성을 포함하며, 이것이 우리의 의사결정 과정에 영향을 미친다. 여기서 말하는 창의성은 백지상태에서 새로운 것을 만드는 것이 아니라 기존에 있던 것을 활용해서 새로운 것은 만드는 것이다. 그러나 인공지능은 감성적인 요소나 창의성을 고려하지 않고, 순전히 데이터와 알고리즘에 의해 학습하고 결정한다. 인간은 감성에 호소하는 것도 가능하고, 기존에 있던 것을 활용해 새로운 것을 만드는 것도 가능하다. 하지만 인공지능은 이것이 불가능 한다.인간의 학습과 인공지능의 학습방법은 차이가 있다. 이를 통해 인간과 인공지능의 장단점을 확실하게 알 수 있다. 이를 토대로 인간의 장점을 확실히 알고, 이를 극대화시키는 방법으로 인간과 인공지능이 공존하는 길을 모색해야 한다.
    • 주요뉴스
    2023-07-13
  • 차석호 칼럼,"ChatGPT도 완벽한 것은 아니다"
    인간은 신이 아니기에 완벽할 수는 없다. 그래서 실수를 하고 이를 통해 배우는 것이다. 살아오면서 실수를 한 번도 한 적이 없는 사람은 없다는 것이 이를 잘 보여준다. 4차 산업혁명 시대의 핵심인 ‘인공지능’ 또한 마찬가지다. 인공지능이 탑재된 것은 기본적으로 기계다. 기계도 사람이 만든 것이라 완벽하지는 않다. 자동차나 컴퓨터 같은 기계에서 오류가 나오는 것도 완벽하지 않은 인간이 만든 것이기 때문이다. 기계뿐만 아니라 기계를 움직이게 하는 소프트웨어도 마찬가지다. 아무리 좋은 소프트웨어라도 오류가 발생하기 마련이다. 이 말은 인공지능 또한 완벽할 수 없다는 것이다. 최근 이슈가 되는 ChatGPT도 인간이 만든 것이라 한계가 있을 수밖에 없다. 인간처럼 대화하는 인공지능을 만든다고 하더라도 모든 것을 인공지능에 넣을 수는 없다. 특히 지금의 컴퓨터 시스템에서는 더더욱 그렇다. 지금의 컴퓨터 시스템이 나온 것은 1952년이다. 이때는 폰 노이만이 최초의 ‘프로그램 내장형 컴퓨터’라고 부르는 ‘에드박’이 나온 시기다. ‘에드박’은 최초로 2진법 체계를 사용한 컴퓨터고, 프로그램을 메모리에 저장하고 순차적으로 실행하는 방법은 지금의 컴퓨터와 동일하다. 그래서 ‘에드박’ 이후의 모든 컴퓨터를 ‘폰 노이만 컴퓨터’라고 부르는 것이다. 즉, 컴퓨터는 1952년 이후 변한 것이 하나도 없다는 것이다. 물론 초창기 운영체제는 CUI(Character User Interface)였다. CUI는 명령어를 직접 입력해서 실행하는 방식이다. Windows 95 이후로 GUI(Graphical User Interface)가 대세가 되었다. GUI는 아이콘을 클릭하면 실행되는 방식이다. 이것만 크게 변했을 뿐 구동하는 방식은 변한 것이 없다. 게다가 ‘에드박’ 이후의 컴퓨터는 할 줄 아는 것이 ‘연산’밖에 없다. 여기서 ‘연산’은 덧셈/뺄셈/곱셈/나눗셈을 하는 산술연산과 yes/no를 판단하는 논리연산으로 이루어져 있다. 이처럼 ‘폰 노이만 컴퓨터’에서 구동되는 인공지능은 한계가 있다. 논리연산으로는 생각하는 것이 불가능하다. 그래서 ChatGPT를 통해 ‘스티브 잡스에 대해서 어떻게 생각하느냐?’라는 질문이나 ‘가장 좋아하는 패스트푸드점은 뭐냐?’는 제대로 된 답을 못한다. 물론 ChatGPT는 생각, 의견, 취향은 말할 수 없다.‘한다. 하지만 이것은 인간이 하는 답이 아니다. 인간은 개인마다 생각과 취향이 다르기에 여러 가지 답이 나올 수 있는데, 인공지능은 100개의 기계가 있으면 동일한 답이 나온다. 생각, 의견, 취향을 묻는 질문에서 보듯 생각을 해야 되는 질문에 답을 못하는 것은 결국 지금의 인공지능이 ‘폰 노이만’의 틀을 벗어나지 못했기 때문이다.
    • 주요뉴스
    2023-06-30
  • [차석호 칼럼] ChatGPT, ‘지피지기면 백전불태’다!
    ChatGPT, ‘지피지기면 백전불태’다! ChatGPT와 같은 언어 생성 모델에는 다음과 같은 단점이 있다. 1. 정보제공의 한계: ChatGPT는 훈련 데이터셋에서 학습한 정보를 바탕으로 응답을 생성한다. 이 모델은 인터넷에 연결되어 있지 않으며 실시간 정보에 접근할 수 없다. 특히나 스스로 새로운 정보를 찾아서 학습할 수 없다. 이는 모르는 것이 있으면 스스로 정보를 찾거나 전문가에게 물어보는 등 인간의 행동과는 차이가 있다. 2. 문맥을 이해하지 못한다: ChatGPT는 때때로 주어진 문맥을 완벽하게 이해하지 못할 수 있다. 특히 긴 대화에서 이전의 메시지를 잊거나 일관성을 유지하는 데 어려움이 있을 수 있다. 특히 대화나 문맥 속 숨겨진 의미를 찾지 못하는 경우가 있다. ChatGPT는 특히 거시기, 충분히, 적당히 등 뜻이 분명하지 않는 단어는 이해를 못한다. 이는 대화나 문맥 속 숨겨진 의미를 찾을 수 있는 인간과는 차이가 있는 부분이다. 3. 객관성과 편향성문제: ChatGPT는 사용된 훈련 데이터의 편향성을 반영할 수 있다. 이것은 예측된 문장이 편향적이거나 객관적이지 않게 될 수 있음을 의미한다. 이는 ChatGPT는 검색한 정보가 잘못된 정보인지 아닌지 판단하지 못하는 것과 연결되어 있다. 즉, ChatGPT는 인간처럼 스스로 찾은 정보가 정확한지 아닌지 판잔 할 수 없다는 것이다. 4. 생각이나 감정을 가지지 못한다: ChatGPT는 사람처럼 생각하거나 감정을 느낄 수 없다. 이 모델은 기계 학습 알고리즘을 기반으로 하며, 인간의 경험, 감정, 자발적인 생각을 표현할 수 없다. ChatGPT를 포함한 현재 인공지능은 ‘폰 노이만 컴퓨터’에 최적화된 인공지능으로, ‘폰 노이만 컴퓨터’는 태생적으로 계산과 검색에 특화된 컴퓨터이기 때문에 생각이나 감정을 가지지 못한다. 5. 창의성과 복잡한 추론: ChatGPT가 결과물을 생성할 수 있지만, 이는 과거 데이터의 패턴을 기반으로 한 것이다. 실제로 새로운 아이디어를 창조하거나 복잡한 문제를 해결하는 데에는 한계가 있다. 예를 들어 컴퓨터, 전화, MP3 플레이어를 합쳐서 스마트 폰을 만드는 것처럼 기존에 있던 것을 조합해 새로운 것을 만들지 못한다. 이것은 인간처럼 생각이나 감정으로 가지지 못하기 때문이다. ChatGPT는 기존의 자료를 짜깁기 하는 것에 불과하기 때문이다. 6. 민감한 정보 처리문제: ChatGPT는 개인 정보나 회사 기밀 등 민감한 정보를 저장하거나 처리하지 않는다. 그러나 사용자가 이런 것을 공유하면, 이러한 정보는 채팅의 문맥 내에서 계속 사용될 수 있다. 이는 실수로 민감한 정보가 노출될 수 있음을 의미한다. ChatGPT는 스스로 이것을 삭제하거나 파기하는 능력을 가지고 있지 않다는 것이다. 이와 같은 ChatGPT의 단점을 알고 사용해야 사용자가 ChatGPT를 맹신하지 않고 보다 효율적으로 사용할 수 있다.
    • 주요뉴스
    2023-06-15
  • 차석호 칼럼,"ChatGPT는 만능이 아니다"
    ChatGPT는 만능이 아니다 GPT-3.5 기반의 ChatGPT가 등장하자 많은 사람이 놀라움을 금치 못했다. ChatGP와 채팅을 통해 주고받은 답변을 보면 인간이 하는 것과 거의 유사했다. ‘Who is the famous Korean football Player?’이라는 질문을 했을 때 ChatGPT는 ‘Son Heung-min’이라고 답했다. 게다가 손흥민이 왜 가장 유명한 한국인 축구선수인지 그 근거도 같이 제시했다. 이 정도면 인간이 하는 것과 유사하다. 이것만 보면 인공지능이 인간과 비슷한 능력을 갖춘 것 아니냐는 생각을 가질 수도 있다. 결론부터 말하자면 ‘No’다. ‘가장 유명한 한국인 축구선수가 누구냐?’는 질문에는 ‘손흥민’이라는 답과 그 근거를 제시했지만 ‘How do you think about Son Heung-min?’이라는 질문에는 ‘As an AI language model, I don't have personal thoughts or emotions’ 즉, ‘인공지능 언어 모델로서, 나는 개인적인 생각이나 감정이 없다’라는 말로 시작한다. 그리고 뒤에 오는 문장은 손흥민에 대한 정보들이지 개인적인 생각이 아니다. ChatGPT가 답했듯이 인공지능은 자신의 생각이나 의견을 말할 수 없는 것이다. 그렇다면 이 질문 말고 다는 질문은 어떻게 답할까? ChatGPT에게 ‘What is the best fast food restaurant?’이라는 질문을 했을 때, ‘As an AI language model, I do not have personal preferences or opinions.’라는 문장으로 시작하는 답변을 했다. 우리말로 번역하면 ’인공지능 언어 모델로서, 나는 개인적인 선호나 의견이 없다‘라는 말이다. 그 뒤에는 ‘However, some of the most popular fast food chains globally are McDonald's, KFC, Subway, Burger King, and Taco Bell.’이라고 나온다. 세계적으로 유명한 페스트푸드 체인을 이야기한다. 이처럼 개인적인 취향을 묻는 질문에는 ChatGPT가 제대로 답변하지 못한다. 이런 이유는 기본적으로 인공지능이 인간처럼 생각할 수 없기 때문이다. 인공지능은 학습된 빅 데이터에서 자료를 가져올 뿐 자신만의 생각이 없는 것이다. 기본적으로 나만의 생각이 있어야 내 생각, 내 의견, 내 취향을 말할 수 있는 것이다. 100명의 사람에게 취향을 물어보면 100개의 답이 나오지만 인공지능은 100개의 기계가 있으면 동일한 답이 나온다. 이런 것을 보면 ChtGPT는 놀라운 것이긴 하지만 맹신하면 안 된다는 것이다.
    • 주요뉴스
    2023-06-07
비밀번호 :