Inteligencia Artificial: riesgos ciberseguridad organizaciĆ³n

by manayradiostudio@gmail.com
0 comment


La Inteligencia Artificial (IA) ha cobrado gran auge en aƱos recientes, especialmente con la llegada de aplicaciones como ChatGPT y Gemini, ambas fĆ”cilmente accesibles; lo cual ha agilizado su implementaciĆ³n en mĆŗltiples Ć”mbitos laborales, por facilitar tareas y automatizar procesos.

El uso de esta tecnologĆ­a no solo conlleva beneficios, tambiĆ©n existen riesgos en la seguridad de informaciĆ³n, tanto personal, como organizacional. Ā«La tecnologĆ­a nos brinda una ventana al mundo, pero tambiĆ©n puede abrir puertas a la vulnerabilidad de nuestra informaciĆ³n personal y organizacionalĀ», comentĆ³ JosĆ© Amado, gerente de la PrĆ”ctica de Identidades Digitales de SISAP.

Amado informĆ³ que uno de los mayores riesgos al utilizar aplicaciones de Inteligencia Artificial, es la incertidumbre respecto al manejo de datos privados por la misma. ā€œChatGPT, por ejemplo, es un programa que necesita de gran cantidad de informaciĆ³n para entrenarse, la cual nosotros le proporcionamos cada vez que lo utilizamos, datos que son almacenados en una nube fuera de nuestro alcanceā€, explicĆ³.

ā€œPensemos que un colaborador en la oficina debe realizar un resumen de un reporte ejecutivo, y para ahorrarse trabajo, copia este en ChatGPT y le pide que lo haga por Ć©l. Esto le darĆ­a acceso completo al reporte, informaciĆ³n de la empresa, entre otros datos, que ahora estĆ”n almacenados en la nube y que no sabemos quiĆ©n puede tener accesoā€ seƱalĆ³ Amado.

Estas preocupaciones de privacidad deben de estar presentes en la organizaciĆ³n al momento de considerar la implementaciĆ³n de Inteligencia Artificial. Una vez se comparten los datos con estas aplicaciones, no pueden eliminarse o regresar, por lo que resulta importante capacitar a los colaboradores sobre estas tecnologĆ­as y sus usos, y asĆ­ evitar que compartan informaciĆ³n sensible o confidencial con ellas.

Aplicaciones creadas por Inteligencia Artificial y su vulnerabilidad

Inteligencia Artificial Riesgo 2
Inteligencia Artificial

A travĆ©s de la Inteligencia Artificial ha sido posible realizar tareas de programaciĆ³n, como escribir el cĆ³digo fuente para nuevas aplicaciones y pĆ”ginas webs; esto sin duda facilita la labor de los programadores y/o personas con poca experiencia en el tema. El cĆ³digo de mĆ”s del 65% de las aplicaciones se estĆ” escribiendo con Inteligencia Artificial.

Para el experto, el problema es que generalmente la Inteligencia Artificial generarĆ” un cĆ³digo similar o idĆ©ntico para varios usuarios, por lo que es posible que varias organizaciones manejen prĆ”cticamente el mismo software o aplicaciĆ³n.

Ā ā€œSi todos comparten el mismo cĆ³digo generado por IA, tambiĆ©n compartirĆ”n las mismas vulnerabilidades, facilitando el acceso a cualquier cibercriminalā€, indicĆ³ Amado.

La tendencia demuestra que este riesgo seguirĆ” en aumento, especialmente por el dinamismo y la velocidad con la que se busca crear nuevas aplicaciones y sistemas; por lo que Amado recomienda a las organizaciones no utilizar la Inteligencia Artificial (IA) para generar los cĆ³digos que necesiten, en cambio recurrir a mĆ©todos tradicionales, los cuales pueden ser mĆ”s lentos, pero a la larga brindarĆ”n mayor seguridad.

El lado oscuro de las aplicaciones de Inteligencia Artificial

Inteligencia Artificial Riesgo 3
Inteligencia Artificial

Mientras que ChatGPT y Gemini buscan apoyar y facilitar las tareas diarias de las personas, existen aplicaciones similares con fines maliciosos, las cuales buscan ayudar a los cibercriminales a mejorar sus mƩtodos de ataque y pasar desapercibidos.

ā€œAlgunos ejemplos de GPTs maliciosos son WormGPT, FraudGPT y PoisonGPT, los cuales pueden realizar tareas desde escribir correos creĆ­bles de phishing, hasta escribir el cĆ³digo de un programa maligno para extraer informaciĆ³nā€, alertĆ³ Amado.

El experto recalca la importancia de conocer acerca de este tipo de aplicaciones, ya que con su ayuda el riesgo de que las organizaciones puedan sufrir ataques cibernƩticos y ser vƭctimas de Ransomware, aumentan.

Si en su organizaciĆ³n se hace el uso de Inteligencia Artificial para la programaciĆ³n de aplicaciones o web sites, o bien, los colaboradores hacen uso de aplicaciones como Chat GPT, Amado recomienda que se acerquen a una empresa de soluciones en ciberseguridad, como lo es SISAP, quienes puedan realizar un anĆ”lisis de sus vulnerabilidades y aumentar sus defensas contra ciberataques.

Acerca de SISAP

SISAP, Sistemas Aplicativos S.A. es una empresa fundada en la ciudad de Guatemala en 1985, lĆ­der en el mercado de la TecnologĆ­a y la Seguridad de la InformaciĆ³n en 10 paĆ­ses de la regiĆ³n. Tiene un amplio portafolio de servicios y soluciones enfocadas en el Ć”rea de seguridad de la informaciĆ³n, con mĆ”s de 1000 certificaciones que acrediten el servicio que brindan a sus clientes.

Con una experiencia de mĆ”s de 39 aƱos, son los lĆ­deres en proveer soluciones y servicios de seguridad a clientes en LatinoamĆ©rica, a travĆ©s de una planilla de mĆ”s de 400 empleados (60% son ingenieros), laboratorios forenses, una academia de ciberseguridad, mĆ”s de 100 marcas aliadas, y distintas oficinas regionales, ubicadas en Guatemala, El Salvador, Honduras, Nicaragua, Costa Rica, PanamĆ”, RepĆŗblica Dominicana, Colombia, MĆ©xico y Estados Unidos.

Lee mƔs: Inteligencia artificial



Source link

You may also like

Leave a Comment