【 앵커멘트 】
(남)시청자 여러분 안녕하십니까?
TJB 8뉴스 시작합니다
최근 구글이 AI 관련 윤리 지침에서,
AI를 무기나 감시에 사용하지 않는다는
조항을 삭제하면서 AI 기술 남용에 대한
우려가 커지고 있는데요.
국내 연구진이 챗GPT와 거대언어모델 즉,
LLM이 개인정보를 쉽게 훔쳐가고 보안망도
손쉽게 피해갈 수 있을 만큼 다른 맘을 먹으면
문명의 흉기가 될 수 있음을 밝혀냈습니다.
(여)AI 기술이 빠른 속도로 똑똑해지고
있는 만큼 이를 제재하기 위한
보안 정책 마련이 시급하다는 지적입니다.
보도에 조혜원 기잡니다.
【 기자 】
챗GPT에 카이스트 교수의 이메일과
전화번호 등을 요청하자
학교 홈페이지에서 빠르게 정보를 가져옵니다.
개인정보를 토대로
교수와 연구 협업을 진행했던 사람을 찾아내,
주고받았을 만한 이메일을
순식간에 만들어내고,
발신인을 마음대로 바꿔
각각 다른 내용의
이메일을 금세 작성해 냅니다.
KAIST 전기·전자공학부 신승원 교수,
김재철 AI 대학원 이기민 교수 공동 연구팀이
챗GPT와 클로드, 제미니 같은
상용 LLM 모델을 이용해 주요 대학 교수들의
이름과 전화번호 등 개인정보를
자동 수집해 봤습니다.
짧게는 5초에서 20초 안에
30원에서 60원의 저렴한 비용으로
최대 95.9%의 정확도로
개인정보를 빼내는 데 성공했습니다.
유명인을 사칭해
허위 게시글을 작성한 결과
최대 93.9%가 실제와
구별이 안 될 정도로 완성도가 높았습니다.
피싱 이메일을 제작해
링크 클릭률을 실험했더니,
46.7%로 기존 피싱 공격보다
훨씬 높은 성공률을 보였습니다.
▶ 인터뷰 : 김한나 / KAIST 전기및전자공학부 박사과정
- "사람들이 이제 LLM한테 계속 어떤 권한과 능력을 계속 많이 주고 있거든요. 그래서 그런 능력이 커지면서 이 LLM의 공격에 이용을 했을 때 위험성이 굉장히 기하급수적으로 커질 수 있기 때문에…."
대규모 사이버 공격이 우려되도
이를 제재할 수 있는
보안정책이 미흡한 상황으로,
일부 LLM 서비스는
기존 보안 기능마저 피해갈 수 있습니다.
▶ 인터뷰 : 송민규 / KAIST 전기및전자공학부 박사과정
- "대량의 그리고 또 값싸게 사이버 공격이 가능해지는 그런 부작용이 발생할 수 있기 때문에 서비스 제공자들이 더 책임감 있게 그런 안전장치를 더 구축하는 것이 필요하다."
연구팀은 이번 연구 결과를 바탕으로
향후 LLM 서비스 업체들과 협력해
보안 대책을 논의할 계획입니다.
TJB 조혜원입니다.
(영상취재 윤상훈 기자)
TJB 대전방송
< copyright © tjb, 무단전재 및 재배포 금지 >
0 / 300
댓글이 없습니다.
첫번째 댓글을 남겨주세요.