♊️ GemiNews 🗞️ (dev)

Demo 1: Embeddings + Recommendation Demo 2: Bella RAGa Demo 3: NewRetriever Demo 4: Assistant function calling

🗞️Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali

🗿Semantically Similar Articles (by :title_embedding)

Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali

Article Image
2024-04-07 - Loretta Napoleoni (from Il Fatto)

Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo […] L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.

Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo a Gaza ne erano già morti 196. Ma il modo in cui i sette in questione sono stati uccisi, annientati da razzi israeliani mentre alla guida di due furgoncini, ha fatto pensare che l’errore commesso, e di cui anche il presidente Netanyahu ha ammesso la responsabilità, non fosse stato umano ma algoritmico. Da quando è scoppiata la guerra, l’alleato principale dell’esercito israeliano è l’intelligenza artificiale. La stretta cooperazione tra militari e macchine ha modificato il modo di fare la guerra, una metamorfosi alla quale contribuiscono nuove tattiche belliche: l’assassinio di tutti i membri di Hamas e della Jihad islamica palestinese per porre fine a questa organizzazione terrorista attraverso lo sterminio; il primato di AI sull’intelligence umano; la rimozione della responsabilità per il danno collaterale. Detti così questi principi suonano pericolosamente simili ai postulati del terrorismo classico: assassinii mirati dei responsabili dello Stato; selezione degli obiettivi scientifica, basata su analisi politiche al fine di incutere il massimo della paura; disinteresse riguardo al danno collaterale e cioè le vittime civili. La contaminazione delle tattiche della lotta armata nello stato è un fenomeno di lunga data. Nessun paese è stato in grado di combattere il terrorismo in casa e fuori senza alterare le regole della guerra giusta o quelle dell’ordine pubblico. Data la natura ‘atipica’ di questo fenomeno ci si è dovuti adattare e così facendo si sono ritoccati i principi etici della guerra e della giustizia. L’ingresso sul palcoscenico dei conflitti dell’intelligenza artificiale ha potenziato questi fenomeni, in quello di Gaza si è arrivati ad attribuire alle macchine un’obbiettività superiore ed estranea all’uomo. Ciò spiega perché diversi soldati israeliani sono convinti che sistemi di intelligenza artificiale come Levender e Where is Daddy abbiano permesso di neutralizzare il trauma prodotto dai fatti dell’7 ottobre. In altre parole, AI ha rimosso loro senso di vendetta. Senza soffermarci sul significato di queste parole e senza dover ricordare che le guerre si combattono tra nemici e la vendetta è spesso una leva propagandistica importante, soffermiamoci sull’effetto immediato della guerra degli algoritmi sul danno collaterale. Levender è un sistema di database che individua gli obiettivi di guerra, principalmente umani. L’elemento discriminatorio è l’appartenenza ad Hamas o alla Jihad islamica palestinese. Levender è costruito per selezionare non solo i capi di Hamas ma anche le giovani reclute o chiunque ne sia associato. Where is Daddy invece è un sistema che seleziona la posizione geografica degli obiettivi umani, l’elemento discriminatorio è l’abitazione familiare. La combinazione dei due sistemi produce attacchi mirati sulle case dei membri di Hamas e della Jihad islamica palestinese spesso la notte quando le famiglie dormono. Il danno collaterale, e cioè quante persone si uccideranno per far fuori l’individuo o gli individui selezionati da Levender e Where is Daddy, non è più un deterrente per sferrare l’attacco. I motivi sono diversi, tra cui il tempo necessario per prendere una decisione a riguardo, AI ragiona molto più velocemente del cervello umano. E così a Gaza nei mesi scorsi non si è esitato ad uccidere 100 persone per colpire un singolo comandante di Hamas mentre in passato il massimo accettabile era 30, limite applicato all’assassinio di Osama bin Laden. C’è un altro elemento che influenza il danno collaterale: il costo delle armi intelligenti. I missili ad alta precisione, definiti smart, e cioè intelligenti, costano molto di più di quelli unguided, comunemente chiamati stupidi perché fanno molti più danni. I primi sono riservati per i grandi capi di Hamas, perché vale la pena spendere di più per assicurarsi che vengano colpiti, i secondi sono per la manovalanza. E così per far fuori un membro junior di Hamas si arriva anche a buttare giù un palazzo intero. Come gran parte delle intelligenze artificiali, Levender è un sistema che impara sul campo: più uccide più diventa intelligente. Ma non è infallibile. Esiste un margine di errore del 10 per cento, alto, troppo alto. Ciò significa che sulle 37mila vittime di Gaza, 3.700 non avevano nulla a che fare con Hamas o con la Jihad islamica palestinese, sono il danno collaterale dell’errore dell’algoritmo. Tra queste c’erano i sette operatori umanitari saltati in aria questa settimana. Il terrorismo non prende assolutamente in considerazione il danno collaterale. L’obiettivo è annientare lo stato, se per farlo bisogna decimare la popolazione civile, che ben venga poiché il gioco vale la candela. Il terrorismo può permettersi di ignorare il danno collaterale perché deumanizza l’individuo, anche il nazismo fece la stessa cosa. A Gaza il connubio tra AI e l’esercito israeliano rischia di ricreare proprio questa aberrazione. L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.

[Italy] 🌎 https://www.ilfattoquotidiano.it/2024/04/07/gaza-il-primo-alleato-dellesercito-israeliano-e-lintelligenza-artificiale-coi-suoi-danni-collaterali/7502791/ [🧠] [v2] article_embedding_description: {:llm_project_id=>"Unavailable", :llm_dimensions=>nil, :article_size=>7809, :llm_embeddings_model_name=>"textembedding-gecko"}
[🧠] [v1/3] title_embedding_description: {:ricc_notes=>"[embed-v3] Fixed on 9oct24. Only seems incompatible at first glance with embed v1.", :llm_project_id=>"unavailable possibly not using Vertex", :llm_dimensions=>nil, :article_size=>7809, :poly_field=>"title", :llm_embeddings_model_name=>"textembedding-gecko"}
[🧠] [v1/3] summary_embedding_description: {:ricc_notes=>"[embed-v3] Fixed on 9oct24. Only seems incompatible at first glance with embed v1.", :llm_project_id=>"unavailable possibly not using Vertex", :llm_dimensions=>nil, :article_size=>7809, :poly_field=>"summary", :llm_embeddings_model_name=>"textembedding-gecko"}
[🧠] As per bug https://github.com/palladius/gemini-news-crawler/issues/4 we can state this article belongs to titile/summary version: v3 (very few articles updated on 9oct24)

🗿article.to_s

------------------------------
Title: Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali
Summary: Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo […]
L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.

[content]
Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo a Gaza ne erano già morti 196. Ma il modo in cui i sette in questione sono stati uccisi, annientati da razzi israeliani mentre alla guida di due furgoncini, ha fatto pensare che l’errore commesso, e di cui anche il presidente Netanyahu ha ammesso la responsabilità, non fosse stato umano ma algoritmico.
Da quando è scoppiata la guerra, l’alleato principale dell’esercito israeliano è l’intelligenza artificiale. La stretta cooperazione tra militari e macchine ha modificato il modo di fare la guerra, una metamorfosi alla quale contribuiscono nuove tattiche belliche: l’assassinio di tutti i membri di Hamas e della Jihad islamica palestinese per porre fine a questa organizzazione terrorista attraverso lo sterminio; il primato di AI sull’intelligence umano; la rimozione della responsabilità per il danno collaterale. Detti così questi principi suonano pericolosamente simili ai postulati del terrorismo classico: assassinii mirati dei responsabili dello Stato; selezione degli obiettivi scientifica, basata su analisi politiche al fine di incutere il massimo della paura; disinteresse riguardo al danno collaterale e cioè le vittime civili.

La contaminazione delle tattiche della lotta armata nello stato è un fenomeno di lunga data. Nessun paese è stato in grado di combattere il terrorismo in casa e fuori senza alterare le regole della guerra giusta o quelle dell’ordine pubblico. Data la natura ‘atipica’ di questo fenomeno ci si è dovuti adattare e così facendo si sono ritoccati i principi etici della guerra e della giustizia. L’ingresso sul palcoscenico dei conflitti dell’intelligenza artificiale ha potenziato questi fenomeni, in quello di Gaza si è arrivati ad attribuire alle macchine un’obbiettività superiore ed estranea all’uomo. Ciò spiega perché diversi soldati israeliani sono convinti che sistemi di intelligenza artificiale come Levender e Where is Daddy abbiano permesso di neutralizzare il trauma prodotto dai fatti dell’7 ottobre. In altre parole, AI ha rimosso loro senso di vendetta.
Senza soffermarci sul significato di queste parole e senza dover ricordare che le guerre si combattono tra nemici e la vendetta è spesso una leva propagandistica importante, soffermiamoci sull’effetto immediato della guerra degli algoritmi sul danno collaterale.
Levender è un sistema di database che individua gli obiettivi di guerra, principalmente umani. L’elemento discriminatorio è l’appartenenza ad Hamas o alla Jihad islamica palestinese. Levender è costruito per selezionare non solo i capi di Hamas ma anche le giovani reclute o chiunque ne sia associato. Where is Daddy invece è un sistema che seleziona la posizione geografica degli obiettivi umani, l’elemento discriminatorio è l’abitazione familiare. La combinazione dei due sistemi produce attacchi mirati sulle case dei membri di Hamas e della Jihad islamica palestinese spesso la notte quando le famiglie dormono.
Il danno collaterale, e cioè quante persone si uccideranno per far fuori l’individuo o gli individui selezionati da Levender e Where is Daddy, non è più un deterrente per sferrare l’attacco. I motivi sono diversi, tra cui il tempo necessario per prendere una decisione a riguardo, AI ragiona molto più velocemente del cervello umano. E così a Gaza nei mesi scorsi non si è esitato ad uccidere 100 persone per colpire un singolo comandante di Hamas mentre in passato il massimo accettabile era 30, limite applicato all’assassinio di Osama bin Laden.

C’è un altro elemento che influenza il danno collaterale: il costo delle armi intelligenti. I missili ad alta precisione, definiti smart, e cioè intelligenti, costano molto di più di quelli unguided, comunemente chiamati stupidi perché fanno molti più danni. I primi sono riservati per i grandi capi di Hamas, perché vale la pena spendere di più per assicurarsi che vengano colpiti, i secondi sono per la manovalanza. E così per far fuori un membro junior di Hamas si arriva anche a buttare giù un palazzo intero.
Come gran parte delle intelligenze artificiali, Levender è un sistema che impara sul campo: più uccide più diventa intelligente. Ma non è infallibile. Esiste un margine di errore del 10 per cento, alto, troppo alto. Ciò significa che sulle 37mila vittime di Gaza, 3.700 non avevano nulla a che fare con Hamas o con la Jihad islamica palestinese, sono il danno collaterale dell’errore dell’algoritmo. Tra queste c’erano i sette operatori umanitari saltati in aria questa settimana.
Il terrorismo non prende assolutamente in considerazione il danno collaterale. L’obiettivo è annientare lo stato, se per farlo bisogna decimare la popolazione civile, che ben venga poiché il gioco vale la candela. Il terrorismo può permettersi di ignorare il danno collaterale perché deumanizza l’individuo, anche il nazismo fece la stessa cosa. A Gaza il connubio tra AI e l’esercito israeliano rischia di ricreare proprio questa aberrazione.
L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.
[/content]

Author: Loretta Napoleoni
PublishedDate: 2024-04-07
Category: Italy
NewsPaper: Il Fatto
Tags: Blog, Economia Occulta, Gaza, Intelligenza Artificiale, Israele
{"id"=>8637,
"title"=>"Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali",
"summary"=>"

Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo […]

\n

L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.

\n",
"content"=>"

Questa settimana sette operatori umanitari della World Central Kitchen (WCK) sono stati tragicamente uccisi in un attacco aereo israeliano mentre consegnavano cibo a Gaza. Il gruppo era composto da cittadini britannici, un australiano, un polacco e un palestinese. Non è la prima volta che operatori umanitari vengono uccisi durante un conflitto, alla fine di marzo a Gaza ne erano già morti 196. Ma il modo in cui i sette in questione sono stati uccisi, annientati da razzi israeliani mentre alla guida di due furgoncini, ha fatto pensare che l’errore commesso, e di cui anche il presidente Netanyahu ha ammesso la responsabilità, non fosse stato umano ma algoritmico.

\n

Da quando è scoppiata la guerra, l’alleato principale dell’esercito israeliano è l’intelligenza artificiale. La stretta cooperazione tra militari e macchine ha modificato il modo di fare la guerra, una metamorfosi alla quale contribuiscono nuove tattiche belliche: l’assassinio di tutti i membri di Hamas e della Jihad islamica palestinese per porre fine a questa organizzazione terrorista attraverso lo sterminio; il primato di AI sull’intelligence umano; la rimozione della responsabilità per il danno collaterale. Detti così questi principi suonano pericolosamente simili ai postulati del terrorismo classico: assassinii mirati dei responsabili dello Stato; selezione degli obiettivi scientifica, basata su analisi politiche al fine di incutere il massimo della paura; disinteresse riguardo al danno collaterale e cioè le vittime civili.

\n\n

La contaminazione delle tattiche della lotta armata nello stato è un fenomeno di lunga data. Nessun paese è stato in grado di combattere il terrorismo in casa e fuori senza alterare le regole della guerra giusta o quelle dell’ordine pubblico. Data la natura ‘atipica’ di questo fenomeno ci si è dovuti adattare e così facendo si sono ritoccati i principi etici della guerra e della giustizia. L’ingresso sul palcoscenico dei conflitti dell’intelligenza artificiale ha potenziato questi fenomeni, in quello di Gaza si è arrivati ad attribuire alle macchine un’obbiettività superiore ed estranea all’uomo. Ciò spiega perché diversi soldati israeliani sono convinti che sistemi di intelligenza artificiale come Levender e Where is Daddy abbiano permesso di neutralizzare il trauma prodotto dai fatti dell’7 ottobre. In altre parole, AI ha rimosso loro senso di vendetta.

\n

Senza soffermarci sul significato di queste parole e senza dover ricordare che le guerre si combattono tra nemici e la vendetta è spesso una leva propagandistica importante, soffermiamoci sull’effetto immediato della guerra degli algoritmi sul danno collaterale.

\n

Levender è un sistema di database che individua gli obiettivi di guerra, principalmente umani. L’elemento discriminatorio è l’appartenenza ad Hamas o alla Jihad islamica palestinese. Levender è costruito per selezionare non solo i capi di Hamas ma anche le giovani reclute o chiunque ne sia associato. Where is Daddy invece è un sistema che seleziona la posizione geografica degli obiettivi umani, l’elemento discriminatorio è l’abitazione familiare. La combinazione dei due sistemi produce attacchi mirati sulle case dei membri di Hamas e della Jihad islamica palestinese spesso la notte quando le famiglie dormono.

\n

Il danno collaterale, e cioè quante persone si uccideranno per far fuori l’individuo o gli individui selezionati da Levender e Where is Daddy, non è più un deterrente per sferrare l’attacco. I motivi sono diversi, tra cui il tempo necessario per prendere una decisione a riguardo, AI ragiona molto più velocemente del cervello umano. E così a Gaza nei mesi scorsi non si è esitato ad uccidere 100 persone per colpire un singolo comandante di Hamas mentre in passato il massimo accettabile era 30, limite applicato all’assassinio di Osama bin Laden.

\n\n

C’è un altro elemento che influenza il danno collaterale: il costo delle armi intelligenti. I missili ad alta precisione, definiti smart, e cioè intelligenti, costano molto di più di quelli unguided, comunemente chiamati stupidi perché fanno molti più danni. I primi sono riservati per i grandi capi di Hamas, perché vale la pena spendere di più per assicurarsi che vengano colpiti, i secondi sono per la manovalanza. E così per far fuori un membro junior di Hamas si arriva anche a buttare giù un palazzo intero.

\n

Come gran parte delle intelligenze artificiali, Levender è un sistema che impara sul campo: più uccide più diventa intelligente. Ma non è infallibile. Esiste un margine di errore del 10 per cento, alto, troppo alto. Ciò significa che sulle 37mila vittime di Gaza, 3.700 non avevano nulla a che fare con Hamas o con la Jihad islamica palestinese, sono il danno collaterale dell’errore dell’algoritmo. Tra queste c’erano i sette operatori umanitari saltati in aria questa settimana.

\n

Il terrorismo non prende assolutamente in considerazione il danno collaterale. L’obiettivo è annientare lo stato, se per farlo bisogna decimare la popolazione civile, che ben venga poiché il gioco vale la candela. Il terrorismo può permettersi di ignorare il danno collaterale perché deumanizza l’individuo, anche il nazismo fece la stessa cosa. A Gaza il connubio tra AI e l’esercito israeliano rischia di ricreare proprio questa aberrazione.

\n

L'articolo Gaza, il primo alleato dell’esercito israeliano è l’intelligenza artificiale. Coi suoi danni collaterali proviene da Il Fatto Quotidiano.

\n",
"author"=>"Loretta Napoleoni",
"link"=>"https://www.ilfattoquotidiano.it/2024/04/07/gaza-il-primo-alleato-dellesercito-israeliano-e-lintelligenza-artificiale-coi-suoi-danni-collaterali/7502791/",
"published_date"=>Sun, 07 Apr 2024 07:16:15.000000000 UTC +00:00,
"image_url"=>"https://st.ilfattoquotidiano.it/wp-content/uploads/2024/02/07/idf-1050x551.jpg",
"feed_url"=>"https://www.ilfattoquotidiano.it/2024/04/07/gaza-il-primo-alleato-dellesercito-israeliano-e-lintelligenza-artificiale-coi-suoi-danni-collaterali/7502791/",
"language"=>nil,
"active"=>true,
"ricc_source"=>"feedjira::v1",
"created_at"=>Sun, 07 Apr 2024 08:36:49.594010000 UTC +00:00,
"updated_at"=>Mon, 21 Oct 2024 19:46:51.393024000 UTC +00:00,
"newspaper"=>"Il Fatto",
"macro_region"=>"Italy"}
Edit this article
Back to articles