En los últimos años la IA ha avanzado de tal manera que incluso ha sido capaz de facilitar o sustituir algunos trabajos. Nadie sabe hasta qué punto esta herramienta es capaz de intervenir en nuestra vida diaria, pero... ¿y si lo hiciese de más? Sé que a nadie le molesta que la IA intervenga en cosas puntuales, pero ¿y si lo hiciese de manera autónoma y sin preguntar si usarla o no?
Esta moderna tecnología tiene muchísimos puntos positivos que no se nos pueden olvidar. Es capaz de analizar muchísima información en cuestión de segundos simplemente basándose en datos y números, y no tiene emociones por lo que tampoco se cansa, y es capaz de ayudar en muchos apartados de salud, como puede ser en el hospital y en la investigación de nuevos tratamientos.
Sin embargo, como todo, también tiene cosas negativas. El no tener sentimientos puede ser algo positivo en el apartado médico, como ya he dicho, pero en la justicia por ejemplo, no funciona igual. En un juicio no todo es negro o blanco por el simple hecho de que hay que tener más cosas en cuenta que solamente datos y números, como hace la IA. Si la IA se implementase en una sentencia y se equivocara, ¿quién se haría responsable?
Realmente creo que la IA debería ser solamente una herramienta complementaria, ya que, aun siendo muy poderosa, no tiene conciencia ni valores. En medicina puede ayudar a detectar enfermedades, en justicia a analizar antecedentes y datos, y en educación a corregir exámenes o ejercicios. Pero la decisión final siempre debería ser tomada por una persona humana.
En definitiva, creo que la IA es muy inteligente, pero que nunca llegará al mismo nivel del humano, donde pueda pasar por los mismos procesos para tomar decisiones racionales sobre cualquier dilema. Por ello, personalmente pondría el límite en las decisiones que pueden afectar a la vida de las personas, como una operación o, como ya he dicho anteriormente, en un juicio.
No hay comentarios:
Publicar un comentario