구글 제미나이 교육용 무료 출시! 학생·교사 위한 AI 도구 30종 총정리
페이지 정보
작성자 Eileen 작성일25-07-19 01:38 조회1회 댓글0건관련링크
본문
The AI도구 Sysdig Threat Research Team (TRT) recently observed a malicious threat actor targeting a misconfigured AI system hosting Open WebUI.[본문 중 번역]Sysdig 위협 연구팀 (TRT)은 최근 악의적인 위협 행위자가 GitHub에서 별점 9만 5천 개를 받은 인기 애플리케이션인 Open WebUI를 호스팅하는 잘못 구성된 시스템을 표적 으로 삼는 것을 발견했습니다. Open WebUI는 대규모 언어 모델(LLM)을 개선하는 데 사용되는 확장 가능한 자체 호스팅 AI 인터페이스를 AI도구 제공합니다. 공격자는 이 시스템에 접근하여 악성 코드를 삽입하고 암호화폐 채굴기를 다운로드할 수 있었습니다. 이 블로그에서는 공격에 대한 자세한 분석을 살펴보고 행동 및 IoC 기반 탐지를 위한 다양한 방법을 제시합니다. 주요 내용Open WebUI는 관리자 접근을 허용하도록 구성된 반면, 실수로 인터넷에 노출되었습니다. 공격자는 악성 AI가 생성한 Python 스크립트를 업로드하여 Linux와 Windows를 대상으로 Open WebUI Tools를 사용하여 실행했습니다.Windows 페이로드는 정교하고 거의 감지할 수 없습니다.명령 AI도구 및 제어(C2)를 위해 Discord 웹훅이 활용되었고, 암호화폐 채굴기가 다운로드되었습니다.공격자는 거의 볼 수 없는 방어 회피 도구를 사용하여 자신의 활동을 숨겼지만 Sysdig의 획기적인 실시간 탐지 기능이 이를 잡아냈습니다.초기 접근Sysdig TRT는 Open WebUI를 실행하는 고객의 교육 시스템이 실수로 인터넷에 노출되어 관리자 권한은 유지되지만 인증은 받지 않은 상태임을 확인했습니다. 인터넷에 노출되어 누구나 시스템에서 명령을 실행할 수 있게 되었는데, 이는 공격자들이 잘 알고 있으며 적극적으로 AI도구 감시하고 있는 위험한 실수입니다. 공격자들은 노출된 교육 시스템을 발견한 후, LLM 기능 향상에 사용되는 플러그인 시스템인 Open WebUI Tools를 사용하기 시작했습니다. Open WebUI는 Python 스크립트를 업로드하여 LLM이 기능을 확장할 수 있도록 지원합니다. Open WebUI 도구로 업로드된 후 악성 Python 코드가 실행되었습니다. 공격자는 UI를 직접 사용하는 대신 자동화된 스크립트를 사용하여 도구를 추가했을 가능성이 높습니다. Open WebUI가 인터넷에 노출되는 것은 드문 일이 아닙니다. AI도구 아래 Shodan 쿼리에서 볼 수 있듯이 현재 17,000개 이상의 인스턴스가 나열되어 있습니다. 그러나 얼마나 많은 인스턴스가 잘못 구성되었거나 다른 취약점에 취약한지는 불분명합니다. 기술적 분석공격자는 기본 템플릿 중 하나를 기반으로 Open WebUI 도구를 업로드했지만 , 마지막에 악성 Python 코드를 추가했습니다. 이 코드는 PyObfuscator를 사용하여 난독화되었습니다. Sysdig TRT에서 PyKlump 라고 명명한 이 점점 더 보편화되고 있는 기법은 아래에서 확인할 수 있습니다.Open WebUI에 의해 AI도구 악성 코드가 로드되자 실행되어 공격을 계속했습니다. 압축된 Base64 역난독화는 64개 계층으로 이루어져 있으므로, 읽을 수 있는 Python 평문을 얻으려면 문자열을 재귀적으로 디코딩해야 했습니다. 다음 Python pyklump 디코더 스크립트를 사용했습니다.그 결과로 생성된 Python 스크립트가 공격자의 주요 페이로드였습니다. 이 스크립트는 다음과 같은 여러 가지 작업을 수행합니다.암호화폐 채굴기를 다운로드하고 실행합니다컴파일 processhider및 argvhider스텔스용지속성을 위한 서비스를 생성합니다.Discord에 알림을 보냅니다AI 지원 탑재체코드를 검토하자마자 뭔가 잘못된 것 같았습니다. AI도구 이 코드는 LLM 특유의 고유한"스타일을 가지고 있습니다. 예를 들어, 아래 코드는 Discord 웹훅을 사용하여 피해자의 정보를 채널로 전송하지만, 인라인 형식 문자열 변수에 크게 의존합니다. 이 패턴은 해커들 사이에서는 드물지만 스크립트 전체에서 공통적으로 나타납니다. 이렇게 LLM을 사용하면 공격 도구 개발 속도가 훨씬 빨라집니다. Sysdig TRT는 ChatGPT 코드 감지기를 사용하여 코드의 일부를 검사했으며 결과는 다음과 같습니다.AI가 생성했거나 AI의 지원을 크게 받았을 가능성이 매우 AI도구 높습니다(약 85~90%). 엣지 케이스에 대한 세심한 배려, 균형 잡힌 크로스 플랫폼 로직, 구조화된 문서 문자열, 그리고 일관된 서식은 이러한 경향을 강력하게 시사합니다.일부 코드는 인간이 생성한 것이라는 점을 확인할 수 있었습니다. 따라서 코드가 AI에 의해 완전히 생성되지 않았다는 점에서 코드 감지기 결과는 정확했습니다. 리눅스 공격 경로아래 다이어그램은 Linux에서 코드가 실행될 때의 공격 경로를 시각적으로 표현한 것입니다.인프런 보안프로젝트님의 강의 페이지 입니다. - 보안프로젝트님 AI도구 소개 | 인프런
댓글목록
등록된 댓글이 없습니다.