Veicoli con intelligenza artificiale: perché non funzionano

Home Forum Motoskills – Forum Motoskills – Parliamo d’altro? Veicoli con intelligenza artificiale: perché non funzionano

Visualizzazione 1 filone di risposte
  • Autore
    Post
    • #20655
      Mastic
      Amministratore del forum

      Vi ricordate un paio d’anni fa, quando si parlava di guida autonoma dei veicoli e tutti ci credevamo?
      Ci feci un paio di inchieste, e ricordo il mio disagio, quando intervistai un docente universitario di robotica che mi spiegò quanto fosse lontana in realtà la vera guida autonoma dei veicoli. Disse una quarantina d’anni.

      Oggi l’argomento è molto passato di moda. Se ne parla sempre meno, e anche la Tesla, che della guida autonoma aveva fatto la sua bandiera, oggi ne parla meno.

      Però ho trovato un articolo, che inizia parlando di intelligenza artificiale. E spiega perché i computer sono profondamente “stupidi”. E prosegue andando a parare proprio sulle difficoltà quasi insormontabili di creare veicoli realmente autonomi nella guida.

      Se avete tempo leggetelo. Non solo perché si parla di guida autonoma. Ma perché l’elettronica sempre più invadente è su tutti i nostri veicoli.
      Sapete che io non sono contrario a questa evoluzione. Ma credo che tutti noi dobbiamo avere ben chiaro lo stato delle cose.

      Ecco l’articolo: https://www.zeusnews.it/n.php?c=28738

    • #20657
      sec
      Partecipante

      Mah. Qui il problema non e’ quanto siano o non siano stupidi i computer bensi… quanto sono stupidi gli esseri umani.
      In fondo un computer e’ un computer. Immagazzina segnali elettrici in un mucchio di piccole celle e questi segnali elettrici possono essere usati per eseguire calcoli matematici in base binaria e semplici operazioni logiche che, combinate, risolvono problemi anche molto piu’ complessi. Quanto di piu’ semplice. Quello che fa, lo fa benissimo… solo che quello che puo’ fare e’ SOLO quello che il programmatore gli dice di fare (compresi gli sbagli), anche nel caso si parli di “intelligenza artificiale” o “apprendimento automatico” (machine learning). In quel caso, il computer immagazzina e processa non in modo indipendente ed autonomo – vero segno di intelligenza – ma seguendo sempre le istruzioni di un programmatore. Infatti, il solo termine “intelligenza artificiale” applicato ai computer non e’ altro che a)un trucco da marketing per spingere la tecnologia e b)l’ ennesima prova della stupidita’ umana.

      Insomma, la guida autonoma si puo’ realizzare? Non vedo perche’ no. Certo, e’ complicato e richiedera’ decenni perche’ i comportamenti da codificare nella macchina sono talmente tanti che richiederanno non tanto una componentistica particolare ma un tempo di sviluppo enorme. Senza contare che il vero limite sara’ stabilire la soglia oltre la quale gli umani decreteranno che il sistema sia ormai sicuro per lavorare nel mondo reale. Non siamo molto bravi a stabilirla, quella soglia, in genere prendiamo coscienza dei problemi solo moltissimi anni e moltissime vittime DOPO.

      La vera domanda e’ “perche’ farlo”. Vale la pena di buttare tanti sforzi e tante ore di lavoro? Per ottenere cosa? Ed a prezzo di quanti “incidenti di percorso”?

      Incidente 18 Aprile

      (che poi non e’ l’ incidente in se a porre domande…. bensi’ lo STATO DI QUELLA VETTURA dopo un frontale con un tronco che in fondo e’ un tipo di incidente che abbiamo gia’ visto tante volte, con delle vetture… ehm… piu’ normali).

      Vorrei vedere come si comporterebbe dalle mie parti una qualsiasi auto a guida non dico autonoma ma semplicemente assistita. Qui la segnaletica di delimitazione della corsia (su cui si basa il sistema a telecamere per il mantenimento carregggiata) non e’ detto che ci sia e non e’ detto che ci sia SEMPRE. 😀 Sai che botti…

      Insomma: PERCHE’?

      • #20658
        Mastic
        Amministratore del forum

        D’accordo con te su tutto, meno che sull’incidente del 18 aprile.
        Dapprima la tesla ha smentito che su quell’atto fosse installato l’autopilot, poi ha notato che non c’erano le strisce in terra, necessarie per il funzionamento del sistema. L’autopilot di suo non viola i limiti di velocità, come invece faceva quell’auto.
        Ora la polizia nei giorni scorsi ha dichiarato che tutte le cinture di sicurezza erano slacciate e che il volante è deformato.

        Non era guida automatica, ma due ubriachi che correvano senza cinture. Solo che nessun organo di stampa ha smentito. Come spesso succede

        • #20659
          sec
          Partecipante

          Si, in effetti anche io sono d’ accordo con te quando discordi con me (!!??@#!! 😀 ).
          Il fatto che la Tesla abbia smentito non e’ un prova sufficiente… ma il fatto che un programmatore abbia istruito il pilota automatico a procedere a velocita’ sostenute/illegali mi pare un fatto decisamente improbabile.
          … l’ ammetto: il link l’ avevo piu’ che altro inserito per mostrare elegantemente come si riduce quell’ affare a seguito di un frontale con un albero, che e’ cosa che abbiamo visto probabilmente anche con i nostri occhi con altre vetture, che NON si mutano in un tizzone ardente. Lo so, sono un po’ bastardo 😀

          Comunque, parlando in generale, pare che il sistema si possa “hackerare” facilmente, e’ stato fatto. Cosi’ com’e’, rileva la presenza di un conduttore (pressione sul volante etc) e non procede se non si verificano determinate condizioni. Ma e’ facile fargli credere che c’e’ qualcuno al volante… che invece non c’e’. Cose che andranno corrette.
          Il problema dei programmatori (e te lo dico con una non notevole ma una certa esperienza da programmatore, tra l’ altro ho certificazioni proprio in machine learning, AI e sicurezza informatica) non e’ tanto quello di dire al computer cosa deve fare. E’ quello di impedire che l’ utente – o sbadatamente o peggio ancora volontariamente – faccia cose che non e’ supposto fare e che possono far guai. E’ praticamente impossibile immaginare tutti i possibili errori e manipolazioni, quello che succede e’ che si butta il software in produzione, se ne studia il comportamento e, alla bisogna, si tappano le falle con i famosi “patch”. Nel frattempo, si scoprono altre falle. Fino a quando il software e’ usato da utenti preparati e responsabili e si occupa della contabilita’ del Sig. Rossi non c’ e’ molto che possa andar storto. Al massimo correggi in un secondo momento. Se il sistema gestisce in tempo reale condizioni di potenziale pericolo ed e’ utilizzato dal proverbiale sbarbatello neo-patentato….

          Nel mondo dell’ informatica gira una massima stupenda: non esiste una “patch” per la stupidita’ umana 😀 😀 😀

        • #20660
          Mastic
          Amministratore del forum

          Oddio, c’è un’inchiesta penale in corso, mi sembra strano che la Tesla asserisca che su quella macchina l’autopilot non era installato se poi invece c’era. La macchina sarà oggetto di perizia.
          Tra l’altro, sempre la Tesla ha fatto notare che senza segnaletica orizzontale pure ad averlo avuto l’autopilot non avrebbe funzionato su quella strada.
          Ultimo ma non ultimo, sembra che l’auto fosse stata affidata ai due passeggeri in prova. Si parla di un test ride, ma su questo sono meno documentato.

          Quanto alla facilità di hackerare un veicolo, concordo con te: per un esperto è una cazzata. Pure programmatore sei??? Ma quante cose hai fatto in vita tua?

        • #20661
          sec
          Partecipante

          Oddio, c’è un’inchiesta penale in corso….

          Esatto. Quando becchi un delinquente in flagranza di delitto, al 99% ti dice “SONO INNOCENTE!”. Poi viene l’ inchiesta, qualche grado di giudizio… e poi FORSE si capisce che e’ successo. E va aggiunto che con queste grandi aziende non si e’ mai sicuri. Com’e’ che dite a Roma? “Chi c’ha i quattrini nun c’ha mai torto”. Ecco. 😀
          Comunque hai ragione tu, anche io sono sicuro che la guida assistita non era inserita e trattasi di due po’racci ubriachi o folli.

          Ecco… semmai mi preoccupa COME avra’ fatto Tesla a sapere che la guida assistita e’ innocente. Se si basano su una supposizione allora ok. Se fanno il log dei dati da ogni cazzo di loro vettura allora siamo fritti. A me non farebbe piacere che Tesla sappia che “alle 22:34 del 15 di Aprile il Sig. Pincopallino viaggiava a 134kmh sulla provinciale x. Coi fari spenti”. Ecco… un motivo in piu’ per evitare ALLA MORTE quella roba.

          Pure programmatore sei??? Ma quante cose hai fatto in vita tua?

          😀
          Professionalmente solo il programmatore e l’ albergatore (che non c’entrano quasi un cazzo, tra loro…), anche se “albergatore” come lo interpretavo io aveva un sistema intricatissimo di sottoinsiemi da non trascurare. Credimi 😛
          Il resto e’ cazzeggio. A volte strutturato e tendente al serio , altre in forma …pura (la moto! 😀 ).

        • #20662
          Mastic
          Amministratore del forum

          Facdvo prima a girarti il tweet di Elon Musk, comunque l’Autopilot è un’opzione a pagamento, e su quell’auto era assente. Non installato. Quindi non poteva essere in funzione.

          Poi, se vuoi essere malizioso, puoi anche dire che Tesla lo ha disinstallato dopo l’incidente. Ma mancano le strisce a terra. E non so se dopo quel casino d’incidente l’azienda riesce a dialogare con la macchina. Avrei dei dubbi.

          Comunque, per rispondere a te, Tesla dialoga costantemente con le sue auto. Le aggiorna. Quando qualcuno ne vende una, avuta notizia del cambio di proprietario, provvede anche a disattivare gli optional a pagamento da remoto. Perché il contratto d’uso di tali software fa riferimento al precedente proprietario. 🙂

        • #20674
          sec
          Partecipante

          Io sono sempre d’ accordo con te, non dimentichiamolo 😀

          Dove la storia offre spunti di dubbio e’ sul fatto che i due passeggeri PARE (teniamoci un bel po’ di margine…) siano stati trovati uno sul sedile del passeggero e l’ altro sul sedile posteriore. Che da una parte non sta assolutamente in piedi, dall’ altra non si capisce perche’ mentire. Visto anche che mentire spudoratamente da parte della stradale sarebbe un reato mica da poco. Tra l’ altro, Musk ha la denuncia davvero facile.

          Pero’ leggo che Musk non dice che l’ auto non aveva l’ autopilot. Dice che non c’era il pacchetto FSD “full self driving”, ovvero guida autonoma NON assistita. Che tra l’ altro e’ un gioco di parole perche’ la guida pienamente autonoma non esiste ancora e questo ti fa capire quanto alcuni aspetti di queste tecnologie vengano trattati con … ehhhmm…. “eccessiva leggerezza”. Comunque sono due pacchetti distinti, attivabili separatamente.
          Poi, per carita’, ha ragione sulla faccenda della segnaletica orizzontale (le linee delimitatrici della carreggiata). Ma si e’ capito se le linee non c’erano sull’ intera strada o SOLO su quel tratto? Il che spiegherebbe tante cose?

          Niente, andra’ fatta una perizia seria, stimata la velocita’ della vettura prima dell’ impatto e… Musk dovra’ tirare fuori i data logs.

          Piccolo OT a latere. Leggevo poc’ anzi che, come la Volvo, anche la Renault comincera’ a limitare la velocita’ max delle proprie vetture a 180kmh. Ed il sistema di cruise control limitera’ la velocita’ in curva.
          Matosca… ricordi una discussione che ci facemmo anni fa sull’ altro forum? Ti rendi conto quanto velocemente ci stiamo avvicinando a quello che ipotizzavamo e che allora sembrava fantascienza? … e ti rendi conto che tra un po’ la mia Alfiat sara’ l’ auto piu’ veloce in strada e vi girero’ attorno infilandovi banane nei tubi di scappamento (che NON avrete)? E saro’ l’ unico non LOGGABILE??? Ride bene chi ride ultimo! 😀 😀 😀

          (fondamentalmente scherzo. Lo sapete, vero? 😀 )

Visualizzazione 1 filone di risposte
  • Devi essere connesso per rispondere a questo topic.
Vai alla barra degli strumenti