LLM재킹 공격에 대응하세요: 클라우드 호스팅 AI 모델 보호
사이버 보안 영역에 새로운 위협이 등장했습니다: LLMjacking, 일종의 AI 하이재킹. 이 혁신적인 공격 방법은 탈취한 클라우드 자격 증명을 사용하여 클라우드에서 호스팅되는 LLM(대규모 언어 모델) 서비스에 침투하여 다른 악의적인 공격자에게 접근하는 것을 궁극적인 목표로 합니다. 시스디그 위협 연구팀은 이 전술을 다음과 같이 정의했습니다. LLM재킹 공격이라고 명명하여 정교한 대규모 언어 모델 보안 위협 환경을 조명합니다.
LLM재킹 공격에 대한 이해
최근Azure 머신 러닝, GCP의 Vertex AI, AWS Bedrock과 같은 주요 클라우드 제공업체에서 호스트형 LLM 서비스를 도입했습니다. 이러한 플랫폼은 개발자가 수많은 인기 LLM 모델에 원활하게 액세스할 수 있도록 지원하여 다음과 같은 AI 기반 애플리케이션. 사용자 인터페이스는 간결하게 설계되어 애플리케이션 구축 프로세스를 가속화합니다.
그러나 이러한 모델에 액세스하는 것은 생각만큼 간단하지 않습니다. 사용자는 클라우드 공급업체에 요청을 제출하여 액세스를 활성화해야 합니다. 일부 모델의 경우 승인이 자동으로 이루어지지만, 다른 모델, 특히 타사 모델의 경우 간단한 양식을 작성해야 합니다. 이러한 절차적 요건에도 불구하고 공격자에게는 거의 도전이 되지 않아 강력한 보안 조치라기보다는 과속 방지턱으로 작용합니다.
클라우드 공급업체는 사용자 친화적인 CLI 명령을 통해 호스팅된 클라우드 기반 언어 모델과의 상호 작용 프로세스를 간소화했습니다. 구성 및 권한이 설정되면 간단한 명령어를 통해 모델을 쉽게 사용할 수 있습니다. EAI의 기술적 고려 사항 지능형 시스템의 책임감 있는 개발과 배포를 보장하는 데 있어 중요한 고려 사항입니다.
공격 풀기
머신 러닝의 핵심 머신 러닝 취약점 의 핵심은 도난당한 클라우드 자격 증명을 악용하여 클라우드 환경을 침해하고 클라우드 제공업체가 호스팅하는 로컬 LLM 모델에 액세스하는 데 있습니다. 이 침입 경로는 일반적으로 Laravel과 같은 취약한 버전의 프레임워크를 실행하는 시스템을 손상시킨 다음, 다음에서 제공하는 LLM 서비스에 액세스하기 위한 자격 증명을 획득하는 과정을 포함합니다. 아마존 웹 서비스(AWS).
공격자는 오픈 소스 Python 스크립트를 포함한 다양한 도구를 사용하여 Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral 및 OpenAI와 같은 다양한 제공업체의 다양한 제품에 대한 키를 검증합니다. 특히, 검증 단계에서는 합법적인 LLM 쿼리가 실행되지 않으며, 대신 자격증명 및 관련 쿼터의 기능을 측정하는 데 중점을 둡니다.
LLM 리버스 프록시의 역할
핵심 LLM 재킹 공격 전략의 핵심은 LLM 서비스의 통로 역할을 하도록 설계된 오픈 소스 프로젝트인 LLM 리버스 프록시를 활용하는 것입니다. 이 도구를 사용하면 공격자는 기본 자격 증명을 노출하지 않고도 여러 LLM 계정에 대한 액세스를 중앙에서 관리할 수 있습니다. 이 프록시를 활용하여 위협 행위자는 익명성을 유지하면서 침해된 계정에 대한 액세스 권한을 판매하여 수익을 창출할 수 있습니다.
또한 LLMjacking 공격 해커 는 로깅 설정을 쿼리하여 탐지를 회피하려는 교묘한 시도를 보여줌으로써 손상된 자격 증명을 사용하면서 발견 위험을 최소화합니다.
LLMjacking 공격 기술 인사이트
공격의 기술적 측면을 자세히 살펴보면 공격자들의 계산된 접근 방식이 드러납니다. 공격자들은 클라우드 환경 내에서 합법적으로 보이는 API 요청을 실행함으로써 즉각적인 경보를 트리거하지 않고도 액세스 경계를 꼼꼼하게 테스트합니다. 예를 들어, 공격자는 의도적으로 API 호출의 매개 변수를 조작하여 LLM 서비스의 존재와 활동을 확인함으로써 탈취한 자격 증명의 기능 범위를 파악합니다.
LLM재킹 공격 완화
조직은 다음과 같은 공격에 대한 방어 메커니즘을 강화할 것을 촉구합니다. LLMjacking 공격 에 대한 방어 메커니즘을 강화해야 합니다. 클라우드 로그에서 의심스럽거나 승인되지 않은 활동을 자세히 로깅하고 모니터링하세요. 도난당한 클라우드 및 SaaS 자격 증명은 여전히 널리 퍼진 공격 벡터이며, 공격자들은 금전적 이득을 위한 새로운 방법을 지속적으로 모색하고 있습니다.
클라우드 호스팅 AI 모델에 대한 기업의 의존도가 높아짐에 따라 무단 액세스와 관련된 위험도 증가하고 있습니다. 이러한 위험을 완화하기 위해 기업은 우선순위를 정해야 합니다:
- 향상된 로깅 및 모니터링: 클라우드 활동에 대한 상세한 로깅과 강력한 모니터링을 구현하여 의심스러운 액세스 또는 무단 액세스를 즉시 감지하세요.
- 취약점 관리: 효과적인 취약점 관리 프로세스를 유지하여 CVE-2021-3129와 같이 알려진 취약점을 통한 초기 액세스를 방지하세요.
- 위험 인식 및 대응: 진화하는 위협 환경에 대해 이해관계자를 교육하고 보안 사고에 대응하기 위한 명확한 프로토콜을 수립하세요.
클라우드 기반 AI 모델 보안 을 보호하는 것은 민감한 데이터를 보호하고 비즈니스 무결성을 유지하는 데 필수적입니다.
결론
클라우드 및 SaaS 인증정보 도난이 계속 증가함에 따라 기업은 사이버 보안 태세를 강화하는 것이 필수적입니다. LLM 서비스를 이용하면 상당한 비용이 발생할 수 있으므로 금전적 이득을 노리는 악의적인 공격자에게는 매력적인 표적이 될 수 있습니다. AI 보안 모범 사례 은 진화하는 사이버 위협으로부터 시스템을 강화하는 데 중추적인 역할을 합니다.
이러한 공격의 영향을 완화하고 비즈니스 운영을 보호하려면 신속한 탐지 및 대응 메커니즘이 무엇보다 중요합니다. 결론적으로, LLMjacking은 다음과 같이 진화하는 클라우드 보안 위협의 특성을 강조합니다. 클라우드 보안 위협의 진화하는 특성을 강조하며 사이버 보안에 대한 사전 예방적 접근 에 대한 사전 예방적 접근이 필요함을 강조합니다.
경계를 늦추지 않고 강력한 클라우드 AI 보안 조치을 구현함으로써 조직은 방어를 강화하고 정교한 공격으로 인한 위험을 완화할 수 있습니다. LLMjacking 공격.
이 글의 출처에는 다음 기사가 포함됩니다. 해커 뉴스 와 Decipher.