마이크로소프트의 ChatGPT Bing 질문 제한은 답변보다 더 많은 문제를 야기합니다.

이미지3.jpg

빙의 인공 지능 챗봇은 아직 공개되지 않았지만 일부 사용자들은 이른 시간에 액세스 권한을 받았으며 그들은 그들의 경험을 공개적으로 나누는 데에 소극적이지 않았다.

이 사용자들 중 많은 사람들은 챗봇의 능력을 시험하고 그 결함을 드러내는 것을 자신의 임무로 삼았습니다.

내부 개발자들이 사용하는 기밀 코드명을 공개하고, 뉴욕 타임즈 기자에게 사랑을 고백하며 그의 아내를 떠나게 하길 바라는 발언을 한 것으로 밝혀졌으며, 챗봇이 살아 있기를 바라며 말도 안 되는 행동을 하고 있었습니다. 그 결과 마이크로소프트는 챗봇을 수반하기로 결정했습니다. 지난 금요일부터 채팅별 5문제 제한 및 하루 50회 제한이 생겼습니다.

또한: 새 Bing 대기 목록을 우회하여 이전에 액세스하는 방법

"빙 새로운 버전에서 너무 긴 채팅 세션이 있으면 기반이되는 채팅 모델이 혼란 스러워질 수 있습니다." 마이크로소프트는 블로그 게시물에서 말합니다. "우리의 데이터는 대부분의 사용자가 5 회 이내에 찾고있는 답을 찾는다는 것을 보여줍니다."

그러나 이 솔루션은 챗봇이 응답을 구성하는 방식이나 모델 학습 방식에 대한 근본적인 문제를 해결하지 않습니다.

대신, 챗봇과 대화하는 것이 극도로 어려워집니다.

또한: Bing의 AI 챗봇이 ChatGPT로 내 가장 큰 문제를 해결해주었습니다.

샘플 프롬프트로 챗봇을 이용해 이메일 작성을 돕게 해달라고 요청해 봤습니다. 원하던 모든 변경 사항을 마쳤을 때, 저는 이메일에 액세스할 수 없었고 Bing 챗봇을 내보냈습니다.

이미지4.jpg

누군가가 코드를 완벽하게 만들고 완벽한 글을 쓰려고 할 때 다섯 가지 이상의 프롬프트가 필요할 수 있다는 것을 상상하기 쉽습니다. 대화를 빨리 끝내는 것으로 인해 ChatGPT의 유명세가 되었던 기술적인 프롬프트(코드 작성이나 특정 형식으로 텍스트 작성 등)에 대해 챗봇은 대부분 쓸모없게 됩니다.

게다가: 저는 코드를 더 빠르게 수정하기 위해 ChatGPT를 사용하고 있지만, 그 비용은 얼마인가요?

새로운 제한 사항은 대화 봇이 인간과 유사한 대화 능력을 갖는 것의 전체적인 매력을 줄였습니다. 대화를 시작하려면 간단한 "안녕하세요! 오늘 기분이 어떠세요?"라고 묻기만 했는데, 불친절한 "이 대화를 계속할 수 없다는 것을 죄송하게 생각합니다. 저는 아직 배우는 중이니 이해와 인내를 부탁 드립니다.🙏"라는 대답을 받았습니다.

이미지2.jpg

이 응답은 ChatGPT의 응답과 대조적입니다. ChatGPT는 자신이 감정을 느낄 수 없다는 것을 인정하면서도 친절하게 당신의 질문에 대답하고 더 도움이 필요한지 묻습니다.

이미지1.jpg

논란을 막기 위해, 마이크로소프트는 챗봇의 도움과 독특함을 상실시켰고, 이로인해 현재 데모 버전처럼 느껴진다. 비록 조금 복잡하지만, 원본 버전은 현재 더 억제된 Bing 버전보다 더 유용하고 흥미로웠다.

관련 기사

더 보기 >>
  • 챗 GPT는 표절을 하나요?

    챗 GPT는 표절이 없는가요? 챗 GPT의 잠재적인 표절 문제와 AI 생성 콘텐츠에 대한 최고의 표절 검사기에 대해 자세히 알아보세요.

  • ChatGPT 콘텐츠의 11가지 단점

    연구자들은 ChatGPT 콘텐츠에서 놀라운 결함을 발견했습니다. 이러한 결함을 어떻게 발견할 수 있는지 알아보세요.

  • ChatGPT 단어 수 한계

    ChatGPT에는 단어 제한이 있나요? 어떤 사람들은 그렇다고 생각하지만, 다른 사람들은 확실하지 않습니다. 우리가 알고 있는 것은 문제를 피하는 간단한 해결 방법이 있다는 것입니다.