Da qualche anno a questa parte, la sfida delle grandi aziende HI-Tech è quella di riuscire a creare un intelligenza artificiale il più simile possibile a quella umana, ma con la creazione di robot e computer così avanzati, non c'è il rischio di creare involontariamente un computer consapevole di se?
Le macchine stanno diventando indispensabili nella nostra vita, ormai ci affidiamo quasi completamente, affidandogli il controllo di intere banche dati e di infrastrutture, questo di sicuro riesce a semplificarci la vita di tutti i giorni e ci permette anche di ridurre il numero di incidenti dovuti a lavori in zone pericolose, per poter migliorare l'efficenza, lo sforzo degli ingegneri è incentrato al miglioramento delle capacità dei computer, ma è una buona cosa?
Le macchine stanno diventando indispensabili nella nostra vita, ormai ci affidiamo quasi completamente, affidandogli il controllo di intere banche dati e di infrastrutture, questo di sicuro riesce a semplificarci la vita di tutti i giorni e ci permette anche di ridurre il numero di incidenti dovuti a lavori in zone pericolose, per poter migliorare l'efficenza, lo sforzo degli ingegneri è incentrato al miglioramento delle capacità dei computer, ma è una buona cosa?
La possibilità nel futuro di creare una macchina dotata di coscienza è elevata, per questo motivo Google starebbe studiando un modo per poter disattivare tempestivamente le intelligenze artificiali prima che possano rappresentare una minaccia vera e propria.
Certamente è da considerare che al momento non esistono computer tanto evoluti da rappresentare un problema come SkyNet nel film TERMINATOR, ma al contempo i progressi in questo campo sono esponenziali, per questo motivo c'è la necessità di creare il "pulsante rosso" in caso di una eventuale minaccia.
Secondo Nick Bostrom, a capo del The future of Humanity Institute, le macchine diventeranno più intelligenti degli uomini entro 100 anni e potrebbero rivoltarsi contro i propri creatori.
Per questo motivo, i ricercatori del DEEPMIND stanno lavorando ad un modo per impedire alle macchine di prendere il controllo di se stesse, ovvero capaci di negare i comandi ai propri programmatori.
Secondo i ricercatori infatti, sarebbe necessario aver sempre una possibilità di contenere una sequenza malevola di azioni iniziata (anche erroneamente) da una macchina, per questo motivo avrebbero creato una rete che consenta all'operatore di poter fermare l'azione di un intelligenza artificiale, in modo da assicurarsi che quest'ultima non impari a impedire o indurre tali azioni.
Voi invece cosa ne pensate? Scrivetecelo nel box dei commenti qui sotto!