ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • Chat gpt4 관련 소리
    그냥 소리 2023. 4. 12. 20:51

    요즘 보면 GPT-4 라는게 핫한데, 올해초인가 처음 들어봤던거같다

     

    GPT(Genrative Pre-trained Transformer)라는데 자연어 처리(NLP)기능이 있는 모델이란다

     

    OpenAI라는 인공지능 회사가 만들었고 2018년에 처음으로 GPT-1이 출시되었다

     

    자연어란 뭔가 할 수도 있는데, 필자가 4학년때 듣는둥마는둥 했던 머신러닝 수업시간의 기억을 잠깐 

     

    되살려보면 자연어란 그냥 우리가 평소에쓰는 말이다. 그러니까 프로그램이 내가 하는 말을 알아듣는다 이거다

     

    대표적으로는 음성 인식 기술이 있다, 실제로 관련 수업들을 들어본 사람들은 만들어본 경험도 있을 듯.

     

    아무튼 매우매우 똑똑한 챗봇이 출시되었다고 하면 되겠다.

     

    실제로도 여러 질문들을 해보면 척척박사로 대답하는 모습을 볼 수 있다.

     

     

     

     

    다만 한글로 하는 질문들에는 다소 미숙한 모습을 보이신다

     

    그런데 최근에 기사들을 보면 gpt가 사이버공격들을 저지르는 못된 해커들에게 악용되고 있다는 내용들이 많이 보였다

     

     

     

     

    https://n.news.naver.com/mnews/article/001/0013874571?sid=104

    피싱메시지를 작성한다거나

     

     

     

    https://n.news.naver.com/mnews/article/003/0011784895?sid=105

    그냥 특정언어를 기반으로 악성코드 만들어줘 하면 뚝딱 만들어내신다

     

    저 기사에서는 챗 GPT에게 노트북카메라의 영상을 공격자의 서버로 보내는 코드와 공격자가 받아서 피해자의

     

    화면을 실시간으로 볼 수 있는 코드 두가지를 짜줬다고한다.

     

    물론 대부분의 악성프로그램이나 악성코드들은 윈도우 방화벽만 켜놔도 다 막힌다.

     

    챗GPT가 당장에 기존의 해커들이나 프로그램 개발자들을 대체할 수는 없는 노릇. 하지만 누가 미래에대해 알겠는가

     

    지금 당장 내 주변에있는 친구들만해도 단순 코드 작성 등 같은 간단한 작업들은 gpt에게 해결해달라고 하고있다

     

    GPT가 지금은 간단한 개발보조도구같은 것일지는 몰라도 특정 시스템들과 네트워크의 취약점을 찾아내서

     

    악용할 수 있는 도구로 사용될지도 모른다는 것이다.

     

     

    https://www.yna.co.kr/view/AKR20230401033500003
    https://n.news.naver.com/mnews/article/469/0000731831?sid=104

     

    실제로 업무관련 정보나 개인정보가 유출을 우려하는 목소리가 여러나라의 기업과 정부에서 들려오고 있다.

     

    삼성전자와 lg디스플레이에서는 gpt 사용에 관한 설문등을 실시하고 사내교육을 통해 직원들에게 올바른 보호지침을

     

    박아놓으려 노력하고있고 sk하이닉스에서는 사내망에서 챗gpt를 사용할 수 없게 해놨다.

     

    결국 대부분의 유출등의 사고들은 누군가의 실수에 발생해왔기 떄문이다.

     

    물론 gpt가 직접 개인정보를 수집하지는 않는다 그래서도 안되고, 하지만 gpt가 수집한 여러 데이터들 중에 민감한

     

    정보들(개인정보, 기업비밀 등)이 포함될 수 있는지는 아무도 모른다

     

     

    https://n.news.naver.com/mnews/article/015/0004480989?sid=102

     

    당장 우리나라에도 비슷한 이슈가 있었다, 필자가 2학년인가 언제 다닐떄쯤 이루다 열풍이 불었었고 

     

    그때 사람들이 같이 대화한 사진들을 올리는 모습들을 인터넷에 공유하면서 같이 웃는 모습은 놀랍게도

     

    지금 gpt출시 이후 반응들과 매우 유사하다. 위 기사를 보면 이루다를 만든 회사에서 출시한 연애의 과학이라는

     

    서비스가 있는데 내 카카오톡 대화자료를 넘기면 업체가 분석한 뒤 연애과정에 대한 조언을 제공하는 서비스란다

     

    자신의 카카오톡 대화 기록을 뭘믿고 남에게 넘기나 싶은 사람들도 있을텐데, 내 생각은 이렇다

     

    그 어떤 사람이라도 자신의 개인정보를 달라한다고 그냥 주는 사람은 없다. 근데 누가 저런걸 알았겠나? 

     

    그냥 필요하다니까 주는거지. 결과적으로 저 사건은 여러 이슈들이 불거지던 이루다를 나락으로 보내고

     

    그대로 섭종엔딩을 만들었다.

     

     

     

    이런 우려들이 계속 나오는 이유는 관련 이용 가이드 라인같은 것들이 제대로 정립이 되어있지않고

     

    OpenAI에서 그 많~은 데이터들을 대체 어디에서 얻었는지, 어떻게 처리했는지 제대로 공개한 적이 없기 때문이다

     

    물론 우리나라에는 개인정보보호법과 관련 법률들이 산더미 같이 있다. 근데 AI한테 법까지 지키라고 하기는

     

    힘든 현실이라고들 한다. 그럼 올바른 gpt 사용을 위해 실천해야할 지침들이 뭐가 있을까

     

    당연하지만 지키지않는 사람들을 위해 내 생각으로 정리해봤다

     

     

    1. gpt에 개인정보, 업무관련 내용이나 기밀등을 갖다바치지않는다

     

    2. gpt에서 나온 내용들을 업무에 사용할때는 제대로 되있는건지 써도되는지 확인한뒤 사용

     

    3. 모르겠다 암튼 제대로 알고써라

     

     

    이상 어설픈 인공지능 지식과 보안지식으로 생각해보면서 쓴 글이었습니다

     

     

     

     

     

     

     

     

     

     

     

Designed by Tistory.