Noé Melo L.

I am a Programmer

Noé Melo L.

I'm from the Sacred Valley of the Incas - Perú. I'm a college student in Esan university, in the career I.T. and Systems Engineering.
I'm passionate about technology, artificial intelligence, machine learning and data science. I developed projects with these technologies in the university courses, I really liked doing those projects.
I strongly believe that technological education and education in basic moral principles can change of humanity.

  • Esan University, Lima, Perú.
  • 15101369@ue.edu.pe
  • www.noemelolocumber.blogspot.com
Me

My Professional Skills

I'm passionate and interested in Artificial Intelligence, Data Science and Web Development. I'm a student with analytical skills, teamwork, flexibility to change and constant attitude of learning in the area to perform.

Web Development 65%
PHP 60%
Python 70%
Data Science 65%

2da Hackaton2017 SNMPE

[First place 🥇] Team: “The Stark” - ESAN University. Project: Autonomous robot that performs the identification of objects.

BBVA Data Challenge

Top [41/73] in BBVA Data Challenge 3rd Edition - 2019. Attrition Legal Person Model.

MIREX

The International Music Information Retrieval Systems Evaluation Laboratory (IMIRSEL) at School of Information Sciences.

Datathon Interbank 2019

Identify customers who have a high probability of acquiring a savings product.

Explorer

Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.

Robot

Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.

0
.
0
.
0
.
0
.
  • Clasificación de emociones musicales de spot publicitario


    Abstract

    Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.

    I. INTRODUCCIÓN

    Como seres humanos siempre expresamos diferentes tipos de emociones por cada situación que pasa en nuestras vidas. Las emociones son definidas según la Real Academia Española como "alteración del ánimo intensa y pasajera, agradable o penosa, que va acompañada de cierta conmoción somática" [5], esto quiere decir que las emociones suelen aparecer en nosotros dependiendo del estímulo que nuestros sentidos perciban. Existen supuestos desde la antigüedad que relacionaban la música con las emociones, ya que había casos en que personas con mal humor cambiaban a humor feliz tan solo al escuchar un tipo de música.

    El filósofo Platón solía decir "La música es para el alma como la gimnasia para el cuerpo". Tanto así era la conmoción por la música que en la época renacentista la usaban como una forma de cortejo para expresar la emoción que sentían los hombres al ver a sus doncellas.

    Nuestro cerebro está en un proceso de evolución y en ese periodo fue incluyendo los sonidos, que alguna vez fueron escuchados, como parte de una pieza fundamental con la que va creando patrones en conjunto con las emociones y así poder descifrar nuestro entorno [6].

    Las emociones tienen como misión convertir los sonidos que percibimos en nuestro entorno en algo que puede ser comprensible. Sin estar consciente de ello, asociamos los sonidos con las emociones, esta relación entre las variables sonido-emoción nos permite reaccionar de acuerdo al contexto que se nos presente en diversas situaciones [6].

    Estudios neurocientíficos han demostrado que al momento de escuchar música, se logran activar las áreas del cerebro que tienen función imitar la empatía, esta zona es donde se encuentran las neuronas de tipo espejo que logran reflejar las acciones de otros actores como si fueran acciones propias, de esta forma nosotros podemos "ponernos en los zapatos del otro" y sentir una emoción ajena.

    Esto nos da como conclusión que la música es capaz de alterar nuestras emociones propias y a la vez llegar a compartirlas [6]. Teniendo como conocimiento base lo descrito anteriormente se quiere llegar con esta investigación a encontrar una forma de aplicar las emociones musicales para el área de marketing. Se conoce que los consumidores no solo compran por necesidad, ellos también buscan una experiencia placentera que puede ser cubierto por la música y esta puede ser un factor importante para tomar una decisión [7].

    Los especialistas de la psicología del consumidor se unen con el marketing para descubrir diferentes formas de hacer sentir que el producto que ofrecen sea atractivo frente a los posibles compradores, anteriormente se enfocaban en elaborar productos llamativos para el ojo humano, pero ahora están comenzando a usar los cinco sentidos para atraer posibles consumidores del producto. Un ejemplo de esto es una cadena asiática de centros comerciales, donde diseñaron una serie de actividades y acciones exclusivamente para mujeres en etapa de gestación, ellos rociaron toda la tienda con talco para bebés y han puesto canciones relajantes que las mujeres solían escuchar en su niñez para conseguir la comodidad y relajación de estas y así poder realizar las respectivas compras [8].

    Nuestro objetivo en general es aplicar este conocimiento y tratar de identificar la música más adecuada para un spot comercial alineandolo con los objetivos que se tenga para que con ello el potencial cliente pueda tener más afinidad con el producto y se pueda hacer una posible compra. En otras palabras, el impacto que se genere en el cliente a través de sus emociones con la música escuchada en el spot comercial ayudará a los objetivos de dicho spot, además de generar un impacto en el cliente que vas más allá de solo la compra, como lo es la identificación con la marca.

    II. ESTADO DEL ARTE

    A. Music emotion classification: Dataset acquisition and comparative analysis

    En [1] uno de los retos que tuvieron fue conseguir los datos de entrenamiento con la correcta etiqueta, ya que a lo largo de los años el estado de ánimo y las emociones han sido temas importantes para los psicólogos, se han propuesto varios modelos teóricos que se agrupan en dos enfoques principales: modelos categóricos y modelos dimensionales, según [1]. Los modelos categóricos categorizan las emociones como la ira, el miedo, la felicidad, la alegría,etc. Los modelos dimensionales, por otro lado, usan ejes para mapear emociones en un plano (ejm, dominancia vs estrés energético, u otra tercera dimensión), de esta manera se reduce la ambigüedad; sin embargo, sigue habiendo cierta ambigüedad ya que cada cuadrante representa más de una emoción. En [1] se emplearon las 5 categorías (“Fig. 1”) establecidas por MIREX (Music Information Retrieval Evaluation eXchange) [4], una comunidad que organiza eventos anuales de información musical de carácter internacional juntamente con University of Illinois at Urbana-Champaign, debido a que estas categorías eliminan las ambigüedades de los modelos categóricos existentes.

    Para la prueba de clasificación se en [1] recolectaron 903 clips de audio de AllMusic con 29 categorías, los cuales fueron subcategorizados según el modelo propuesto por MIREX. El problema que tuvieron fue que esta categorización fue en función a la contribución de los usuarios, las características MIR (Music Information Retrieval) fueron obtenidas usando varias herramientas o frameworks, como PsySound, MIR ToolBox y Mayras, que son herramientas de caja negra, siendo los resultados valiosos comparados y analizados para el MER (Music Emotion Recognition).

    En [1] realizaron varios modelos con cada set de datos (características) extraídos con los frameworks, incluso, un modelo combinando los tres data sets. Usaron la tÃl’cnica de Validación Cruzada con k = 10 repitiendo 20 veces, para un mejor resultado. El mejor modelo tuvo una precisión de 46.86%, usando los datos combinados, mostrando también que las características de MIR ToolBox logran buenos resultados. En la “Fig. 3” muestra los 12 principales características obtenidas con el mejor modelo.

    Finalmente con el mejor modelo se obtuvo una matriz de confusión con muchos datos mal clasificados (“Fig. 4”) ,los cuales según [1] fueron por motivos de superposición semántica y acústica entre las categorías, para corregir el error predicción, [1] agrupó las categorías (“Fig. 5”), pero no menciona si entrenó otro modelo o simplemente sumó el porcenaje de predicciones. Los resultados finales que obtuvieron con la mejor combinación de características (data set combinado) se muestran en la “Fig. 6”.

    Como conclusión, [1] afirma que es difícil hacer conclusiones definitivas de sus resultados, ya que se usaron diferentes conjuntos de datos. Pero recomienda crear nuevas características de audio que representen mejor las emociones y hacer una preselección de características de audio para trabajar con pequeña cantidad de datos de manera óptima.

    B. Genere Classification of Spotify Songs using Lyrics, Audio Previews, and Album Artwork

    Como antecedente a este trabajo de investigación, está el trabajo de Tyler Dammann y Kevin Haugh, de la Universidad de Stanford [2] ; ellos presentaron una forma de clasificar la música por géneros tomando como datos la vista previas de las canciones, ilustraciones del álbum y la letra de la canción transformándolos luego como variables. Tomaron una muestra de 4000 canciones de diversos géneros entre cristiana, metal, country y rap y esta muestra fue dividida en 80/10/10. Para determinar el género que pertenece se designó una métrica (1):

    Donde ’x’ es el vector de microgéneros para una canción dada y se calcula por cada género su subcadena gy(xi), luego se busca por la cantidad de instancias que tiene el género y se toma el de mayor cantidad. Para entrenar la data probaron tres modelos distintos de clasificación; entre ellos están las redes neuronales recurrentes, naives bayes y K-nn. Este modelo obtuvo una precisión de 91.75% en el conjunto de validación. La data para conseguir las tres variables mencionadas fueron obtenidas de Kaggle y el API de spotify [2]. Esta investigación consistió en clasificar la música por géneros musicales, en nuestro caso se hará para encontrar las emociones que se generan al escuchar las canciones. Una hipótesis que manejamos es que la clasificación de emociones depende del género de estas. Una observación que se le puede hacer a esta investigación es que no tiene una metodología estructurada explicada ya que en su investigación abordaron más el tema de los modelos a usar. La tabla de resultados se puede ver en la figura 7

    C. Music Mood Classification

    Otro trabajo que se asemeja a este, es la investigación de Jose Padial y Ashish Goel, con el tema Clasificación del estado de ánimo musical, para que su investigación sea lo más delimitado posible tomaron las emociones de tristeza y felicidad [3]. Para este proyecto una de las dificultades que fueron presentadas es la obtención de la base de datos pues buscaban una dataset que tengan la etiqueta de FELIZ y TRISTE y optaron por construir el suyo, pero al hacerlo pueden caer en la subjetividad. Luego de ello, encontraron una dataset en Million Song Database (MSD), aqui se basaron en dos variables el tiempo de dominio y las variaciones espectrales. Todo este dataset tiene un peso alrededor de 300 GB por lo tanto solo tomaron 10000 canciones y luego descubrieron que las etiquetas de esta base de datos eran incorrectas, lo que llevó a etiquetar a mano las canciones reduciendo de 10000 a 223.Las características que se tomaron en cuenta fueron: el ritmo, energía, modo, key y armonía.Para resolver el problema de la data usaron aprendizaje no supervisado por medio de clúster y con ese pequeño conjunto de datos obtuvieron una precisión de 52.47 %. Como conclusión de esta investigación los autores determinan que con un mayor conjunto de datos podrían llegar a 70% de precisión si solo se toma en cuenta la armonía de las canciones. La metodología que se siguió para esta investigación lo expresaremos en el siguiente gráfico:

    III. METODOLOGÍA

    Para nuestro trabajo se está tomando un dataset con 900 audios de 30 segundos divididos en 4 cuadrantes, acorde al modelo de Rusell. [13] La metodología a seguir estará dividido también en dos partes La primera será la extracción de características de los audios y luego se pasará al modelado, tal como lo han hecho nuestros antecedentes. Para esto luego d ela extracción separaremos nuestra base de datos en dos partes como vemos en la imagen 39, Basetrain y BaseTest. Para el modelado usaremos la baseTrain y para esto probaremos El aprendizaje Supervisado, ya que el datset cuenta con las etiquetas, y se utilizará 3 modelos: SVM, RNN, Random Forest y Xgboost para la clasificacción. Luego del entrenamiento, se usará la baseTest para obtener el modelo que da una mayor precisión y ese será el modelo ganador

    IV. RESULTADOS

    Para detallar el resultado, se presentaraá las matrices de confusión por cada modelo que se ejecutó. En el caso del SVM se obtuvo el mejor accuracy de 68.88 siendo hasta el momento el mejor indicador. Luego con el modelo de RNA Keras,se llegó a un accuracy bajo de 42.78 Caso distinto con el modelo de Random forest el cual su máximo accuracy fue de 62.78. Y por ultimo se obtuvo del modelo XGBOOST un accuracy de 66.11 siendo el modelo con un segundo mejor indicador de los cuatro que se ejecutarón. Las variables más importantes de estos modelos se representan en la figura 38. [h!]

    V. CONCLUSIONES

    Como Conclusión podemos decir que la clasificació de emociones es posible, pero es muy trabajoso en cuanto buscar las mejores características de audio que ayuden a una mejor predición. Nuestro accuracy obtnido es muy bajo a lo que esperaba esto es aceptable puesto que los antecedentes a esta investigación no superaban el accuracy 60. Podriamos haber obtenido un accuracy un poco mas alto si hubieramos trabajado con Deep Learning y mas características.

    REFERENCES

    [1] R.Panda y R. Paiva, "Music emotion classification: Dataset acquisition and comparative analysis", Conferencia Digital Audio Effects(DAFx12). York, UK, Setiembre 2012.

    [2] T. Dammann y K. Haugh, "Genre Classification of Spotify Songs using Lyrics, Audio Previews, and Album Artwork".International Journal of Electrical and Computer Engineering 2017

    [3] J. Padial and A. Goel, "Music Mood Classification,"International Journal of Electrical and Computer Engineering 2018

    [4] MIREX, "Audio Classification (Train/Test) Tasks", Mirex 2018, 2018

    [5] Real Academia EspaÃsola. (2011). Diccionario de la lengua espaà ´ sola ´ [Dictionary of the Spanish Language] (22nd ed.). Madrid, Spain: Author

  • 2da Hackatón 2017


    *Este fue un concurso tecnológico en la que,  gracias a Dios, mi equipo obtuvo el primer puesto :)*

    PRIMER PUESTO:
    Grupo: “The Stark” – Universidad ESAN.
    Proyecto: “Scorpion - Robot autónomo que realiza la identificación de objetos al interior de la mina.” 

    SOLUCIÓN: SCORPION - ROBOT AUTÓNOMO QUE REALIZA LA IDENTIFICACIÓN DE OBJETOS AL INTERIOR DE LA MINA
    “Scorpion” trata sobre un robot que reconoce objetos que representan un potencial peligro en el interior de las minas subterráneas. El robot recorre las vías utilizando sensores para sus movimientos y, a su vez, utiliza una cámara que va capturando imágenes en tiempo real, las cuales son usadas para la identificación de objetos. Cuando un objeto peligroso es identificado, el robot alerta a los usuarios responsables. Asimismo, se realizan las alertas y los monitoreos, a través de una plataforma web.
    Protipo del robot "Scorpion"

    ORGANIZADA POR
    Sociedad Nacional de Minería, Petróleo y Energía y el Centro de Desarrollo Emprendedor de la Universidad ESAN con el apoyo del Ministerio de Producción.
    SNMPE from SNMPE on Vimeo.
    Ver todos los ganadores en la página oficial de SNMPE Aquí
    PROYECTOS GANADORES PUBLICADOS EN LA REVISTA 'DESDE ADENTRO'[PAG. 23]
    Presentación del proyecto en el VIII TICAR 2017: Simposium de Tecnología e Innovación del Sector Minero Energético.

    EQUIPO CONFORMADO POR
    • Eleana Robles C.
    • José Chipana T.
    • Noé Melo L.
    Agradecido por el reconocimiento de la Universidad ESAN con la publicación de nuestro proyecto "Scorpion" en su Blog Oficial [ver publicación]. De igual manera a EsanData [imagen]

    SCRIPTS OF IA COURSES

    Computer graphics: OpenCV and Image Processing. Data Mining: RandomForest, XGBoost, LightGBM, CatBoost and SMOTE. IA: Fundamentals. ChatBot: Chatterbot library with MongoDB.

    ADDRESS

    #

    EMAIL

    #

    TELEPHONE

    #

    MOBILE

    #