• pgo_lemmy@feddit.it
      link
      fedilink
      Italiano
      arrow-up
      2
      ·
      14 days ago

      La risposta è facile: no.

      Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell’avvelenamento non si pone.

      Gli LLM a cui si riferisce l’articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

      E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate…

    • informapirata@poliverso.orgOP
      link
      fedilink
      arrow-up
      1
      ·
      15 days ago

      @andre123 qui però stiamo parlando soprattutto di LLM e altri modelli “content creator”, non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc

      • pgo_lemmy@feddit.it
        link
        fedilink
        Italiano
        arrow-up
        1
        ·
        14 days ago

        La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.

        Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.

        • Elena Brescacin@poliversity.it
          link
          fedilink
          arrow-up
          2
          ·
          14 days ago

          @pgo_lemmy “toglierli non è la soluzione” a qualsiasi cosa. Basta che guardi la storia della verifica età, gli smartphone a scuola, l’educazione sessuale e tutto il resto. Comprese le droghe. Senza conoscenza, e senza alternative, il problema viene solo rimandato