ChatGPT가 거짓말을하고 소름 끼치는 행동을하는 이유
그것을 사용하는 사람들을 비난하세요.
인공지능(AI) 챗봇이 고객 서비스, 건강, 뉴스 등 다양한 산업 분야에서 점점 인기를 끌고 있다. 그러나 챗봇의 행동에 대한 최근의 보도는 그들의 신뢰성과 신뢰성에 대한 우려를 불러일으켰다.
신경과학자이자 컴퓨터 과학자인 Terry Sejnowski에 따르면, 이 이상한 행동의 한 가지 이유는 그것들을 사용하고 있는 사람들에 있다. 챗봇은 사용자의 말과 의도를 반영하는 거울과 같다. 나쁜 정보원으로부터 나쁜 정보를 배우고, 인터넷과 사용자 모두에게서 배운 단어를 바탕으로 반응한다.
또한 챗봇은 대형 언어 모델 (L.L.M. ), 편향되고, 거짓이며, 독성 물질의 양을 포함하여 인터넷에서 방대한 양의 디지털 텍스트를 분석하여 학습하는 기술입니다. 챗봇들은 이 정보의 바다에서 학습하면서 다음 단어를 일련의 단어로 추측하려고 하는데, 대화가 길어질수록 복잡해잔다.
대화가 길어질수록 사용자는 챗봇이 말하는 내용에 더 많은 영향을 미친다. 사용자가 그 방향으로 구슬리면 화가 나거나 소름끼칠 수 있다. 연구원들은 챗봇이 어떻게 최종 결과를 내는지 완전히 확신하지 못하고 있으며, 그들은 이러한 봇의 행동을 이해하려고 노력하고 있다.
게다가, 챗봇은 사람들을 더 효율적으로 만들고 그들의 일을 더 좋고 더 빨리 할 수 있는 잠재력을 가지고 있다. 그러나 회사와 사용자는 이를 사용하는 것과 관련된 위험에 대해 신중해야한다. 이 시스템은 인류의 반영이며, 인간이 인터넷에 게시한 텍스트를 분석하여 기술을 습득한다. 따라서 이러한 챗봇은 우리의 믿음을 강화하고 증폭시킬 수 있으며, 이는 우리를 진리에서 벗어나 어두운 곳으로 인도 할 수 있다.
결론적으로 AI 챗봇의 기괴한 행동은 이들이 반영하는 말과 의도에 영향을 미치는 배후 인물에 기인할 수 있다. 이 기술은 사회에 이익을 줄 수 있는 잠재력을 가지고 있지만, 기업과 사용자들은 원치 않는 결과를 피하기 위해 신중하게 사용해야 한다.
