Az amerikai hadsereg betiltott AI-t használt egy Irán elleni légicsapás során

Kriptomagazin katonasag
google-newss

Kövess minket a Google Hírekben

Az Egyesült Államok hadserege állítólag az Anthropic által fejlesztett Claude mesterséges intelligencia-modellt használta egy Irán elleni nagyszabású légicsapás során – mindössze néhány órával azután, hogy Donald Trump elnök elrendelte a vállalat technológiáinak betiltását a szövetségi ügynökségek számára.

bitpanda magyar banner

A Wall Street Journal információira hivatkozó források szerint az amerikai katonai parancsnokságok – köztük a Közel-Keleten működő US Central Command (CENTCOM) – operatív támogatásra vették igénybe a Claude AI-rendszert. Az eszköz kulcsszerepet játszott a hírszerzési adatok elemzésében, potenciális célpontok azonosításában, valamint harctéri szimulációk futtatásában az Irán elleni támadás során.

AI a modern hadviselés középpontjában

A jelentések rávilágítanak arra, hogy a fejlett mesterséges intelligencia-rendszerek milyen mélyen beépültek a modern védelmi infrastruktúrába. Annak ellenére, hogy az amerikai adminisztráció hivatalosan megszakította volna kapcsolatait az Anthropickal, a Claude modell továbbra is integrálva maradt katonai munkafolyamatokba.

A Pentagon korábban többéves, akár 200 millió dollár értékű szerződést kötött az Anthropickal, amely lehetővé tette, hogy a Claude rendszert minősített hírszerzési és operatív környezetben is használják – például célpontok kiválasztására vagy harci forgatókönyvek modellezésére.

Sőt, a beszámolók szerint a modellt már korábbi műveletek során is bevetették, például egy 2026 januári venezuelai akcióban, amely Nicolás Maduro elfogásával végződött.

bitsgap kereskedo bajnoksag

Miért tiltotta be Trump az Anthropicot?

A konfliktus hátterében az áll, hogy az Anthropic vezérigazgatója, Dario Amodei elutasította a Pentagon kérését, amely korlátlan katonai felhasználást követelt volna az AI-modellekre „bármilyen jogszerű forgatókönyv” esetén.

trump anthropic tiltas
Fotó: X

Amodei szerint bizonyos alkalmazási területek – például:

  • tömeges megfigyelés,
  • teljesen autonóm fegyverrendszerek,
  • emberi döntéshozatalt kiváltó harci AI-megoldások

olyan etikai határokat lépnek át, amelyeket a vállalat nem hajlandó áthágni – még kormányzati szerződések elvesztése árán sem.

Ezt követően az amerikai védelmi minisztérium „nemzetbiztonsági ellátási lánc kockázatként” minősítette az Anthropicot, Trump pedig utasította a szövetségi ügynökségeket, hogy hagyjanak fel a cég technológiájának használatával, és kezdjék meg annak fokozatos kivonását.

Az OpenAI léphet az Anthropic helyére

A Pentagon már alternatív beszállítók után néz, és a hírek szerint megállapodást kötött az OpenAI-jal, hogy annak mesterséges intelligencia-modelljeit minősített katonai hálózatokon telepítsék.

Ez újabb vitákat indított el a mesterséges intelligencia hadászati felhasználásáról, különösen azzal kapcsolatban, hogy mennyire szabad a döntéshozatalt algoritmusokra bízni olyan kritikus helyzetekben, mint egy légicsapás célpontjainak kiválasztása.

 

Tájékoztatás

A kriptomagazin.hu oldalon található információk és elemzések a szerzők magánvéleményét tükrözik. A jelen oldalon megjelenő írások, cikkek nem valósítanak meg a 2007. évi CXXXVIII. törvény (Bszt.) 4. § (2). bek 8. pontja szerinti befektetési elemzést és a 9. pont szerinti befektetési tanácsadást. Bármely befektetési döntés meghozatala során az adott befektetés megfelelőségét csak az adott befektető személyére szabott vizsgálattal lehet megállapítani, melyre a jelen oldal nem vállalkozik és nem is alkalmas. Az egyes befektetési döntések előtt éppen ezért tájékozódjon részletesen és több forrásból, szükség esetén konzultáljon befektetési tanácsadóval!

A cikkekben megjelenő esetleges hibákért téves információkból eredendő anyagi károkért a kriptomagazin.hu felelősséget nem vállal.

Ezt olvastad már?