- Linux posiciona la IA como una herramienta de asistencia, no como un reemplazo para los desarrolladores
- Los contribuyentes humanos siguen siendo totalmente responsables de sus envíos.
- El etiquetado de transparencia revelará dónde se ha utilizado la IA
Linux ha confirmado que el uso de IA generativa para respaldar la codificación es aceptable, pero ha establecido varios requisitos para garantizar resultados de alta calidad.
Por ejemplo, el código debe ser compatible con GPL-2.0 y debe incluir el identificador SPDX apropiado.
Sin embargo, lo más importante es que se pueden adoptar asistentes de inteligencia artificial como Microsoft Copilot en el proceso de desarrollo, siendo los desarrolladores humanos los responsables en última instancia de la producción, la revisión del código, garantizar el cumplimiento de la licencia y la responsabilidad total (como antes).
El artículo continúa a continuación.
Linux dice que la IA está bien, pero los humanos siguen siendo responsables
La medida posiciona a las herramientas de IA como un asistente en lugar de un reemplazo humano, prohíbe a los agentes de IA aprobar el código y permite que solo los humanos certifiquen los certificados de origen de los desarrolladores.
Para mayor claridad, se agregará una nueva etiqueta “asistido por”, que detalla los modelos y herramientas utilizados para revelar la participación de la IA.
“Cuando las herramientas de IA contribuyen al desarrollo del kernel, la atribución adecuada ayuda a rastrear el papel cada vez mayor de la IA en el proceso de desarrollo”, se lee en la página de Github.
La confirmación del proyecto detrás de uno de los proyectos de código abierto más grandes del planeta llega después de meses de debate interno. Finalmente, parece haberse alcanzado un punto medio sensato, en el que la asistencia de la IA es ampliamente aceptada, pero no el “abandono de la IA”.
La decisión de implementar el etiquetado de transparencia también es notable, ya que el fundador de Linux, Linus Torvalds, anteriormente descartó las prohibiciones totales de IA por considerarlas poco prácticas. En cambio, la responsabilidad por fallas de seguridad, problemas de derechos de autor, etc., recae en los contribuyentes individuales.
En cuanto a las implicaciones de este movimiento en la industria, Linux se convirtió así en uno de los primeros y más influyentes proyectos en ampliar los límites de la IA.
De cara al futuro, veremos más empresas y proyectos adoptar reglas similares, mientras que otros pueden desarrollar sus propios métodos, pero Linux ciertamente ha iniciado una discusión más amplia sobre dónde encaja la IA en el ciclo de vida del desarrollo.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy