Inteligencia artificial. Pymes y productividad

Los hombres de la prehistoria, Inicialmente, se valía de sus brazos, manos y piernas para realizar todos los trabajos necesarios para su subsistencia aplicando el esfuerzo físico.

Transcurrido el tiempo los humanos desarrollaron herramientas que los ayudaron a resolver sus necesidades.

Más adelante diseñaron y fabricaron máquinas que resolvían muchas de las labores que requerían esfuerzo y agotamiento físico y, de ser ayudados por las herramientas pasaron, los humanos, a ayudar a las máquinas para que realicen los trabajos.

Con el transcurso del tiempo las máquinas fueron evolucionando y automatizándose al punto de obedecer órdenes que se le impartían desde archivos digitales, pero siempre estas máquinas resolvían tareas de movimientos mecánicos, esfuerzo, trabajos riesgosos, de precisión o trabajos manuales diversos.

En el año 1956 se produce un cambio de paradigma cuando el científico John McCarthy junto a otros colegas en la conferencia de Dartmouth, Hanover, establecieron las bases de la Inteligencia Artificial (I.A.) como un campo independiente dentro de informática, dando lugar al inicio de la Cuarta Revolución Industrial.

Previamente, en 1950, Alan M. Turing había publicado en la revista Mind, el artículo «Ordenadores de Inteligencia» que trataba sobre los conceptos de I.A. y establecía lo que dio en llamarse el «Test de Turing» que permitía determinar si un ordenador se comportaba según según lo que se entendía como artificialmente inteligente.

Durante el proceso de desarrollo y perfeccionamiento de la I.A. se arriesgaron diferentes definiciones y test, cada vez más exigentes, para validar que una computadora o procesador actuaban inteligentemente. Los test de Turing y el test de Lovelace 2.0 resultan los más aceptados para estas definiciones.

Varios autores definieron la I.A. como la capacidad que tienen las máquinas para llevar a cabo tareas que son realizadas por los seres humanos otros autores agregaron que es el campo de estudio que se enfoca en la explicación y emulación de las conductas inteligentes en función de procesos computacionales basados en la experiencia y el conocimiento. También hay quienes contemplan la participación de la emocionalidad del ser humano sin lo cual las definiciones serían incompletas.

Como podemos observar, se pasó del campo de los movimientos mecánicos al del comportamiento cerebral, tratando de imitar el funcionamiento neuronal, el conocimiento, el análisis de situaciones y problemas, la toma de decisiones y análisis de resultados.

El hecho concreto es que la suma de la I.A. y la Robotización avanzan sobre las capacidades físicas e intelectuales de la humanidad.

Las investigaciones y aplicaciones sobre I.A. se deslizaron por los siguientes tres ejes: Redes neuronales

A grandes rasgos, se recordará que el cerebro humano se compone de decenas de billones de neuronas interconectadas entre sí formando circuitos o redes que desarrollan funciones específicas.

Una neurona típica recoge señales procedentes de otras neuronas a través de una pléyade de delicadas estructuras llamadas dendritas. La neurona emite impulsos de actividad eléctrica a lo largo de una fina y delgada capa denominada axón, que se escinde en millares de ramificaciones. Las extremidades de estas ramificaciones llegan hasta las dendritas de otras neuronas y establecen conexión llamada sinapsis, que transforma el impulso eléctrico en un mensaje neuroquímico mediante liberación de unas sustancias llamadas neurotransmisores que excitan o inhiben sobre la neurona, de esta manera la información se transmite de unas neuronas a otras y va siendo procesada a través de las conexiones sinápticas.

Las redes neuronales tienen como estructura varias capas: la primera capa como buffer de entrada, almacenando la información bruta suministrada en la red ó realizando un sencillo preproceso con la misma, la llamamos capa de entrada; otra capa actúa como interfaz o buffer de salida que almacena la respuesta de la red para que pueda ser leída, la llamamos capa de salida; y las capas intermedias, principales encargadas de extraer, procesar y memorizar la información, las denominan capa oculta.

Sistemas de lógicas difusas

El segundo eje son los sistemas de lógica difusa. Los seres humanos pensamos y razonamos por medio de palabras y en grados entre dos estados por ejemplo blanco y negro, frío y caliente, etc. Estos sistemas de lógica difusa son una mejora a los sistemas experto tradicionales, en el sentido de que permiten utilizar lenguaje humano como nosotros razonamos.

En los sistemas expertos, estos dos elementos básicos están contenidos en dos componentes separados, aunque relacionados: una base de conocimientos y una máquina de deducción, o de inferencia. La base de conocimientos proporciona hechos objetivos y reglas sobre el tema, mientras que la máquina de deducción proporciona la capacidad de razonamiento que permite al sistema experto extraer conclusiones.

La lógica difusa (también llamada lógica borrosa) se basa en lo relativo a lo observado como posición diferencial. Este tipo de lógica toma dos valores aleatorios, pero contextualizados y referirlos entre sí. Así, por ejemplo, una persona que mida dos metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en un metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.

Algoritmos genéticos

El tercer eje corresponde a los algoritmos genéticos. Son una técnica inspirada en aspectos biológicos. El proceso de la evolución del que Charles Darwin hace referencia y se puede aplicar para optimizar dispositivos de control o robots o cualquier otro tipo de aspectos que sean susceptibles de ser optimizados, como líneas de producción o secuencias dentro de determinados procesos organizacionales que contengan una matriz de funcionamiento que pueda ser corrida.

Ensayos y aplicaciones

La empresa I.B.M., en febrero de 1996, desarrolló una computadora llamada Deep Blue para jugar al ajedrez que enfrentó al campeón mundial Gary Kaspárov quien la venció ganándole tres partidas y empatando dos. Con una nueva versión llamada Deeper Blue se repitió el enfrentamiento con Kaspárov en 1997, ganando el encuentro la máquina en seis partidas por 3 ½ a 2 ½ convirtiéndose en la primera computadora en derrotar a un campeón del mundo vigente.

En el año 2011 I.B.M. presentó la supercomputadora Watson en un concurso de juegos televisivos en EEUU en el que derrotó a dos de los mayores ganadores históricos de estos enfrentamientos, recibiendo un premio de 1.000.000.- de Dólares que destinaron a beneficencia.

Estas etapas del desarrollo de la I.A. muestran que en Deep Blue los programadores debieron cargar todas las jugadas de ajedrez y las correspondientes defensas y ataques conocidas para que la computadora pudiera explorar, seleccionar y proponer las jugadas.

Posteriormente IBM presentó a Watson la supercomputadora que incorporó información de múltiples fuentes, las relacionó entre sí y elaboró una respuesta propia sin necesidad que se cargaran las posibles respuestas, prevaleciendo sobre los humanos entrenados para estos desafíos.

En un programa televisivo de entrevistas, el presidente de un banco BBVA comentaba que procesaban mil millones de transacciones diarias y que sería imposible dar respuesta a esta demanda de los clientes en tiempo y forma si no se emplearan recursos informáticos que interviniesen en la atención de esta cantidad de propuestas. Además, agregaba que sus profesionales economistas y financistas tuvieron que conocer sobre materias de ingeniería informática y los ingenieros debieron aprender sobre prácticas bancarias para conformar equipos que elaboren algoritmos inteligentes aplicables a la necesidad. En un artículo del diario La Nación de Buenos Aires, ante la pregunta del periodista sobre el Rival histórico respondió: Claro que nuestro competidor es Santander y J.P.Morgan y Wells Fargo también lo son. Pero para nosotros nuestros competidores en el tiempo van a ser Google, Amazon, Facebook, ahí es donde se va a librar la batalla en el siglo XXI.

También se publicó en el suplemento de economía del diario La Nación de Bs.AS., un artículo sobre la participación de la I.A. en la selección de personal. Comentaba que a un ordenador se le habían cargado cerca de un millón de C.V. de postulantes a empleos que respondieron a convocatorias de búsqueda y se le proporcionó los datos de aquellos que habían resultado seleccionados. El propio ordenador, sin la participación de ninguna persona, elaboró el algoritmo que permitió realizar las siguientes selecciones con solo cargar las características del puesto a cubrir y los C.V. de los postulantes, ahorrando mucho tiempo de análisis por parte de los profesionales de RRHH. Seguramente estos sistemas de selección no son perfectos, pero contribuyen a reducir la cantidad de presentaciones que deban verificarse personalmente, descartándose los que se apartan del criterio de selección y presentando los que más se ajusten a la búsqueda.

Watson incursionó en la medicina, complementando los trabajos de un equipo de médicos de Tokio, Japón, que habían establecido una terapia a una mujer de 60 años que padecía de un cáncer que no podían doblegar y la computadora, después de analizar una batería de información pertinente, les propuso la terapia adecuada que concluyó con la cura y el alta de la paciente.

También se están empleando las propiedades de Watson como abogado ya que, con el programa Ross Intelligence, colabora con firmas que se ocupan de resolver problemas de bancarrota considerándose el primer abogado con I.A. La base de datos de este programa contiene información de variadísimas fuentes, enciclopedias, diccionarios, artículos periodísticos, fallos judiciales, etc. El programa realiza las investigaciones legales dando las respuestas más significativas y citando las fuentes más confiables, sin que los equipos de abogados tengas que abocarse personalmente a la búsqueda y comparación de información pertinente.

Volviendo al caso de la selección de personal, advertimos que, más allá de la carga de información, los programas informáticos diseñaron, en este caso, algoritmos por sus propios medios, “pensando y elaborando racionales decisiones” que facilitaron la búsqueda que habría que haber hecho con varios especialistas.

Las empresas y la I.A.

Curiosamente, una gran mayoría de empresarios de pequeñas y medianas empresas no se interesan por esta nueva era de I.A. desconociendo por completo sus alcances.

Algunos empresarios consideran que este es un tema para unos cincuenta años adelante. Otros no manejan el análisis en abstracto y evitan esforzarse en entender la I.A. También hay un grupo que no desea abandonar su estado de confort y se mantienen ligados a lo que conocen y hacen habitualmente.

El problema es que la I.A. aporta los medios indispensables para lograr productividad y competitividad, situación indispensable para compartir los mercados con diferentes empresas.

La competencia en precios, calidad y eficiencia se instalan cada vez más fuerte en los negocios y obliga a recurrir a la mayor eficiencia posible.

Así como se incorporaron las herramientas, las máquinas, los procesos administrativos y productivos, robots operacionales y todos los recursos existentes en cada etapa del avance en la optimización de las organizaciones, hoy corresponde recurrir a la I.A. que permite lograr la eficiencia necesaria para desenvolverse en todos los segmentos de los negocios. De lo contrario va a resultar muy difícil mantenerse competitivo.

No obstante, no se orienta solamente a mejorar el posicionamiento de la empresa, se orienta a dejar mayor libertad a los empresarios, permitirles estar más tiempo con la familia, los amigos, investigar, innovar, poder disfrutar del deporte preferido, la lectura, en fin, disfrutar y aprovechar todo el mundo que existe fuera de la empresa y los negocios.

Creo que deberíamos hacer todos los esfuerzos posibles para difundir esta nueva ciencia y sus avances prácticos, desmitificando las dificultades y aspectos negativos que se le atribuyen injustificadamente.

Cita esta página

Bronzino Eduardo. (2017, junio 16). Inteligencia artificial. Pymes y productividad. Recuperado de https://www.gestiopolis.com/inteligencia-artificial-pymes-productividad/
Bronzino Eduardo. "Inteligencia artificial. Pymes y productividad". gestiopolis. 16 junio 2017. Web. <https://www.gestiopolis.com/inteligencia-artificial-pymes-productividad/>.
Bronzino Eduardo. "Inteligencia artificial. Pymes y productividad". gestiopolis. junio 16, 2017. Consultado el . https://www.gestiopolis.com/inteligencia-artificial-pymes-productividad/.
Bronzino Eduardo. Inteligencia artificial. Pymes y productividad [en línea]. <https://www.gestiopolis.com/inteligencia-artificial-pymes-productividad/> [Citado el ].
Copiar

Escrito por:

Imagen del encabezado cortesía de elbridgegerry en Flickr