Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Los desarrolladores recurren a la IA generativa a pesar de los riesgos de seguridad

Seg√ļn 800 l√≠deres de desarrolladores (DevOps) y seguridad de aplicaciones (SecOps) encuestados, el 97 por ciento utiliza la tecnolog√≠a GenAI en la actualidad, y el 74 por ciento dice que se siente presionado a usarla a pesar de los riesgos de seguridad identificados.

La investigación de la empresa de gestión de la cadena de suministro de software. sonatipo muestra que el 45 por ciento de los líderes de SecOps ya han implementado IA generativa en el proceso de desarrollo de software, en comparación con solo el 31 por ciento de DevOps.

Esto puede deberse a que los líderes de SecOps ven un mayor ahorro de tiempo que sus homólogos de DevOps: el 57 por ciento dice que la IA generativa les ahorra al menos seis horas a la semana en comparación con sólo el 31 por ciento de los encuestados de DevOps.

Cuando se les preguntó sobre los impactos más positivos de esta tecnología, los líderes de DevOps informaron un desarrollo de software más rápido (16 por ciento) y software más seguro (15 por ciento). Los líderes de SecOps citan una mayor productividad (21 por ciento) y una identificación/resolución de problemas más rápida (16 por ciento) como sus principales beneficios.

En la otra cara de la moneda, más de tres cuartas partes de los líderes de DevOps dicen que el uso de IA generativa resultará en más vulnerabilidades en el código fuente abierto. Quizás resulte sorprendente que los líderes de SecOps estén menos preocupados (58 por ciento). Además, el 42 por ciento de los encuestados de DevOps y el 40 por ciento de los líderes de SecOps dicen que la falta de regulación podría disuadir a los desarrolladores de contribuir a proyectos de código abierto.

Los líderes en ambos campos quieren ver más regulación. Cuando se les preguntó quién creen que es responsable de regular el uso de la IA generativa, el 59 por ciento de los líderes de DevOps y el 78 por ciento de los líderes de SecOps dicen que tanto el gobierno como las empresas individuales deberían ser responsables de la regulación.

“La era de la IA se siente como los primeros d√≠as del c√≥digo abierto, como si construy√©ramos el avi√≥n mientras lo vol√°bamos en t√©rminos de seguridad, pol√≠ticas y regulaci√≥n”, dice Brian Fox, cofundador y director de tecnolog√≠a de Sonatype. “La adopci√≥n ha sido generalizada en todos los √°mbitos, y el ciclo de desarrollo de software no es una excepci√≥n. Si bien los dividendos de productividad son claros, nuestros datos tambi√©n exponen una realidad preocupante y paralela: las amenazas a la seguridad que plantea esta tecnolog√≠a a√ļn incipiente. Cada ciclo de innovaci√≥n conlleva nuevos riesgos, y es fundamental que los desarrolladores y l√≠deres de seguridad de aplicaciones consideren la adopci√≥n de la IA con miras a la seguridad”.

Las licencias y compensaciones por el contenido generado por IA tambi√©n son motivo de preocupaci√≥n. En particular, las sentencias contra la protecci√≥n de los derechos de autor para el arte generado por IA ya han provocado un debate sobre cu√°nta aportaci√≥n humana es necesaria para cumplir con lo que la ley actual define como verdadera autor√≠a. Los encuestados coinciden en que los creadores deber√≠an poseer los derechos de autor de los resultados generados por la IA en ausencia de una ley de derechos de autor (40 por ciento), y ambos grupos coinciden abrumadoramente en que los desarrolladores deber√≠an ser compensados ‚Äč‚Äčpor el c√≥digo que escribieron si se utiliza en artefactos de c√≥digo abierto en los LLM.

Puedes encontrar más información en el sitio sonatipo.