L

Large Language Models


  • Firefox vulnerabilità Claude; Claude e Firefox, l’AI accelera la vulnerabilità e diventa parte del DevSecOps
  • Il caso

    Claude e Firefox, l’AI accelera la ricerca di vulnerabilità e diventa parte del DevSecOps

    02 Apr 2026

    di Francesco Iezzi

    Condividi
  • LLM guerra
  • conflitto iran

    LLM in guerra: il Pentagono aprirà alle aziende la possibilità di training AI con dati riservati

    19 Mar 2026

    di Laura Teodonno e Tommaso Diddi

    Condividi
  • Bias cognitivi e cyber security; AI e linguistica: il rischio di bias profondi occulti
  • intelligenza artificiale

    AI e linguistica: il rischio di bias profondi occulti e il ruolo della privacy

    13 Mar 2026

    di Pasquale Mancino

    Condividi
  • Le vulnerabilità dei modelli linguistici di grandi dimensioni (LLM); Prompt Ignition: la nuova superficie d’attacco dei modelli linguistici
  • genAI

    Prompt ignition: la nuova superficie d’attacco dei modelli linguistici

    06 Mar 2026

    di Andrea Leandro

    Condividi
  • Fiducia zero AI
  • L'analisi

    Fiducia zero nell’AI: la convergenza tra verifica, sicurezza offensiva e disinformazione

    26 Feb 2026

    di Aldo Ceccarelli

    Condividi
  • OpenAI e Anthropic si aprono all'USAISI; Anthropic Claude Code Security: l'AI è parte integrante della superficie di attacco e della difesa; Anthropic, leak del codice di Claude, 500mila righe esposte per errore: i rischi per la supply chain software
  • cyber difesa

    Anthropic Claude Code Security: l'AI è parte integrante della superficie d'attacco e della difesa

    25 Feb 2026

    di Mirella Castigli

    Condividi
  • Modelli AI di uso generale linee guida UE; Edps: le nuove linee guida sull’uso dell'AI Generativa nelle istituzioni europee; L'analisi dei processi e la teoria dei sistemi (STPA) per la sicurezza dell'AI
  • intelligenza artificiale

    Analisi dei processi e teoria dei sistemi: un framework per mitigare i rischi dei LLM

    23 Feb 2026

    di Vincenzo Calabrò

    Condividi
  • Le proprietà dei LLM applicati ai sistemi critici: precisione, regolazione e stabilità; Sicurezza degli agenti LLM: serve un framework unificato
  • le raccomandazioni

    Sicurezza degli agenti LLM: serve un framework unificato

    28 Gen 2026

    di Vincenzo Calabrò

    Condividi
Pagina 1 di 2 Pagina successiva
  • Archivio Newsletter

  • Newsletter
    Iscriviti alla newsletter di Cybersecurity360

    Vuoi ricevere gli articoli di Cybersecurity360, le nostre guide per la sicurezza delle aziende, gli approfondimenti, le nostre analisi delle notizie più rilevanti?

    Cliccando su "ISCRIVITI ALLA NEWSLETTER", dichiaro di aver letto l' Informativa Privacy e di voler ricevere la Newsletter.
  • Segui gli ultimi update

    Entra nella community

  • Contattaci

    Vuoi maggiori informazioni?

  • info@cybersecurity360.it