chatGPT 믿음직스럽지만 거짓말도 잘하네요

chatGPT의 거짓말

 

OpenAI의 chatGPT 출현 이후로 업무나 코딩할때 많은 부분이 편해졌다는 것을 느낍니다. 메신저봇R에도 chatGPT를 적용해두고 사용중인데 과금이 무서워 3개월 무료 포인트 소진되면 종료할 예정입니다.

코딩 할 때는 만들어야 하는 함수의 윤곽을 잡아야 할때 유용하고 python, java, flutter, android, mysql 등등 다양한 스택을 옮겨다니려면 망망대해에 있는 함수를 찾기가 어려운데 부탁만 하면 척척 만들어내 줍니다. 물론 저한테 알맞게 필요한 것만 뽑아써야 하는데요.

 

그런데 오늘은 chatGPT의 거짓말을 보게 되었습니다. 물론 이뿐만 아니라 다양하게 거짓을 말하는 사례를 보아왔었는데요. 제가 직접 당해본건 오늘이 처음 아닌 처음(?) 입니다.

 

 

위와 같이 4개의 값과 한개의 미지수의 합의 평균이 5530이 되는 값을 찾아달라는 부탁을 해보았습니다.

쉬운 산수문제이지만 파이썬 코드로 좀 더 가독성이 높은 코드를 원했었고 x의 결과값은 7965이어야 했습니다.

 

 

 

 

 

위처럼 좋은 코드를 만들어내 주었고 저는 결과값이 먼저 필요해서 결과값만 가져다가 엑셀에 저장했는데 예상했던 것과 다른게 나오는 것이었습니다. 그래서 직접 계산을 해보니 7965가 나오고 chatGPT에게 되물었습니다.

 

 

 

 

27650-sum은 7965인데?  라고 하니 '제가 실수를 해서 죄송합니다' 라고 말하네요

일부러 실수를 하는것인지는 chatGPT 내부 코드를 봐야 알겠지만 황당합니다.  이런것을 보면 인공지능을 맹신해서는 안될듯하고 필터링을 잘 하면서 활용해야겠다는 생각이 듭니다.

 

그래도 바로 사용가능한 python 코드를 만들어내줌에 매우 감사해하며 사용하고 있습니다.