Según 800 líderes de desarrolladores (DevOps) y seguridad de aplicaciones (SecOps) encuestados, el 97 por ciento utiliza la tecnología GenAI en la actualidad, y el 74 por ciento dice que se siente presionado a usarla a pesar de los riesgos de seguridad identificados.
La investigación de la empresa de gestión de la cadena de suministro de software. sonatipo muestra que el 45 por ciento de los líderes de SecOps ya han implementado IA generativa en el proceso de desarrollo de software, en comparación con solo el 31 por ciento de DevOps.
Esto puede deberse a que los líderes de SecOps ven un mayor ahorro de tiempo que sus homólogos de DevOps: el 57 por ciento dice que la IA generativa les ahorra al menos seis horas a la semana en comparación con sólo el 31 por ciento de los encuestados de DevOps.
Cuando se les preguntó sobre los impactos más positivos de esta tecnología, los líderes de DevOps informaron un desarrollo de software más rápido (16 por ciento) y software más seguro (15 por ciento). Los líderes de SecOps citan una mayor productividad (21 por ciento) y una identificación/resolución de problemas más rápida (16 por ciento) como sus principales beneficios.
En la otra cara de la moneda, más de tres cuartas partes de los líderes de DevOps dicen que el uso de IA generativa resultará en más vulnerabilidades en el código fuente abierto. Quizás resulte sorprendente que los líderes de SecOps estén menos preocupados (58 por ciento). Además, el 42 por ciento de los encuestados de DevOps y el 40 por ciento de los líderes de SecOps dicen que la falta de regulación podría disuadir a los desarrolladores de contribuir a proyectos de código abierto.
Los líderes en ambos campos quieren ver más regulación. Cuando se les preguntó quién creen que es responsable de regular el uso de la IA generativa, el 59 por ciento de los líderes de DevOps y el 78 por ciento de los líderes de SecOps dicen que tanto el gobierno como las empresas individuales deberían ser responsables de la regulación.
«La era de la IA se siente como los primeros días del código abierto, como si construyéramos el avión mientras lo volábamos en términos de seguridad, políticas y regulación», dice Brian Fox, cofundador y director de tecnología de Sonatype. «La adopción ha sido generalizada en todos los ámbitos, y el ciclo de desarrollo de software no es una excepción. Si bien los dividendos de productividad son claros, nuestros datos también exponen una realidad preocupante y paralela: las amenazas a la seguridad que plantea esta tecnología aún incipiente. Cada ciclo de innovación conlleva nuevos riesgos, y es fundamental que los desarrolladores y líderes de seguridad de aplicaciones consideren la adopción de la IA con miras a la seguridad».
Las licencias y compensaciones por el contenido generado por IA también son motivo de preocupación. En particular, las sentencias contra la protección de los derechos de autor para el arte generado por IA ya han provocado un debate sobre cuánta aportación humana es necesaria para cumplir con lo que la ley actual define como verdadera autoría. Los encuestados coinciden en que los creadores deberían poseer los derechos de autor de los resultados generados por la IA en ausencia de una ley de derechos de autor (40 por ciento), y ambos grupos coinciden abrumadoramente en que los desarrolladores deberían ser compensados por el código que escribieron si se utiliza en artefactos de código abierto en los LLM.
Puedes encontrar más información en el sitio sonatipo.