19
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
this post was submitted on 08 Jul 2023
19 points (85.2% liked)
France
2792 readers
1 users here now
Hop, !france@lemmy.world c'est finit, merci de migrer sur !france@jlai.lu
founded 1 year ago
MODERATORS
Ok, reformulons alors: les IA se basent sur le travail d'artistes sans leur consentement (ou alors malgré leur refus explicite), et génèrent du profit sans aucun scrupule et en ignorant complètement les auteurs.
Et les devs sont les premiers à mettre des licences restrictives y compris dans l'open source. Les licences auto-repliquées ça les gêne pas, et je pense pas qu'ils tolèreraient qu'une entreprise décide de s'approprier leur code à des fins commerciales. Qui plus est, l'informatique est un domaine très différent, donc je comprends pas trop le lien.
Si le copyright a besoin d'être changé, c'est en opposition aux entreprises prédatrices, pas aux créateurs.
Absolument, ça fait un moment qu'on attend que s'ouvre cette discussion. Depuis qu'il est devenu gratuit de dupliquer des oeuvres et des les échanger par internet en fait. Il aurait du être clair depuis ce moment là qu'un système qui se base sur la rétribution à la copie produite ne pouvait plus tenir longtemps. Le partage non commercial d'oeuvre aurait du logiquement être légal et la production financée par d'autres moyens comme le crowdfunding (qui ont fini par émerger du monde de l'informatique, pas de celui des syndicats de copyright, prétendument intéressés à la viabilité des artistes mais incapables de repenser leur modèle). Elle va enfin arriver, mais partir sur la confrontation pure risque de ne pas être productif. Vous pouvez pas nous servir du "ok partager les oeuvres que vous aimez avec des amis c'est moral mais illégal" et ensuite dire "bon ok, utiliser des datasets publiés c'est légal mais c'est pas moral". On remet le deal à plat ou pas.
"restrictives" dans le sens qu'il est interdit de leur ajouter certaines restrictions. Les licences virales comme la GPL sont un hack du copyright. La plupart des libristes seraient ok si on faisait sauter toutes ces licences en disant "à partir de maintenant le copyright ne s'applique plus au code ni aux binaires". C'est des restrictions anti-restrictions.
La plupart des licences virales l'autorisent, mais imposent que le code reste libre. Des boites comme Canonical gagnent de l'argent avec du code libre et avec la bénédiction de la communauté.
Ce qui perturbe les gens comme moi qui sont enthousiastes des progrès de ces modèles, c'est qu'on n'a pas l'impression de faire quelque chose de différent d'un auteur humain: un humain voit des contenus d'autres artistes, s'en inspire, apprend comment on fait, comment la syntaxe d'une image fonctionne, les couleurs et les styles, les compositions et la grammaire de l'image. Pourquoi une IA n'aurait pas le droit d'apprendre également, comme un humain, en regardant des images, en mixant des styles et en produisant des oeuvres originales mais forcément influencées par ce qu'elle a vu dans le passé?
D'autant plus que dés le début de cette polémique, les propositions ont abondé pour se mettre d'accord sur un tag qui indique que l'image ne doit pas être utilisée dans de l’entraînement de modèle (note qu'en théorie le protocole robots.txt devrait pouvoir suffire). Ça a été rejeté en bloc, les ayants-droits ayant décidé qu'ils préféraient créer artificiellement un nouveau type de restrictions et en négocier l'accès. Ça me semble pas basé sur une position de bonne foi.
Après, l'angoisse de voir ses compétences perdre rapidement de la valeur, je la comprends, et je la partage chaque fois que je vois la qualité du code produite par GPT-4 faire un bon, mais s'accrocher à des choses qui deviennent de toutes façon obsolètes ne me semble pas la solution. Il faut qu'on construise ensemble la société post-travail, et qu'on le fasse ensemble, au lieu de défendre bec et ongle le droit à une chasse gardée dans la niche des bullshit jobs.
Retour intéressant et bien argumenté