Información

¿Por qué el oído humano es más sensible a los tonos de 4000 Hz?

¿Por qué el oído humano es más sensible a los tonos de 4000 Hz?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

La sensibilidad auditiva humana depende de la frecuencia, que puede visualizarse mediante diagramas de contorno de igual volumen (iso-sonoridad). A continuación se ofrece un ejemplo (tomado de aquí).

Este gráfico muestra que un tono con una frecuencia de alrededor de 4 kHz (mínimos arriba) necesita la menor cantidad de energía real para ser percibido bien en comparación con un tono de cualquier otra frecuencia, mientras que por otro lado muestra que los tonos de frecuencias por debajo de 100 Hz y por encima de 19 kHz necesitamos mucha energía para que podamos percibirlo.

Mi pregunta es, ¿Cómo se explican las fluctuaciones claramente uniformes / persistentes en estos contornos de iso-sonoridad? ¿Por qué nuestros oídos son más sensibles a los tonos de 4 kHz y por qué hay un "hombro" en los contornos a aproximadamente 7 kHz? Mi primera suposición sería la percepción adecuada del habla humana: ¡pero la frecuencia característica del habla humana es de alrededor de 80 a 260 Hz!


EDITAR: Mi pregunta es similar a esta pregunta anterior, pero es un poco diferente en detalles (solo se preocupan por la caída general, mientras que a mí me preocupa la caída, el hombro, etc.). Además, esa pregunta no tiene una respuesta aceptada.


La selectividad de frecuencia de la percepción del volumen se mostró por primera vez en la década de 1930, cuando Fletcher y Munson publicaron un conjunto de curvas que mostraban la sensibilidad del oído al volumen en comparación con la frecuencia. Estas curvas de igual volumen, como se muestra en la pregunta anterior, ahora se conocen como contornos de igual volumen de Fletcher-Munson.

Una explicación física sencilla es el hecho de que los sonidos con frecuencias de alrededor de 4 kHz se amplifican en el canal del oído medio a través del proceso de resonancia. De hecho, se perciben de 10 a 20 dB más fuertes que otras frecuencias audibles. El pabellón auricular también afecta la resonancia y, por lo tanto, el oído externo y el oído medio unen sus fuerzas para crear jorobas y protuberancias en las curvas de igual volumen.

La razón evolutiva por qué 4 kHz, y no, p.ej. 0,5 u 8 kHz, es difícil de precisar. Primero puedo aclarar algunos conceptos erróneos en la pregunta, antes de volver a la pregunta propiamente dicha:

  • En primer lugar, mencionas que la "frecuencia característica" de una voz humana está entre 80 y 250 Hz. Te refieres al frecuencia fundamental; la frecuencia característica es una medida utilizada en electrofisiología para determinar la especificidad de frecuencia de las estructuras neurales del oído interno.
  • En segundo lugar, la frecuencia fundamental no determina la selectividad de frecuencia de la comprensión del habla. En la Fig. 1 se ofrece una imagen útil a continuación, que muestra qué frecuencias transmiten qué componentes del habla.


Fig 1. Dependencia de la frecuencia de los componentes del habla. fuente: The Essential Guide to Hearing Loss

Resulta aparente de la Fig.1 que las consonantes (f, s, h etc.) tienen un tono más alto que las vocales (a, o, u etc.). Podría decirse que las consonantes transmiten la mayor parte de la información de la palabra. De hecho, la comprensión del habla generalmente se ve menos afectada al eliminar las vocales que al eliminar las consonantes. De todo esto se puede deducir que La audición de alta frecuencia (digamos 2 - 8 kHz) es más importante para comprender el habla..

Y luego, para volver a su motivación evolutiva detrás de los contornos de igual volumen de Fletcher-Munson, puede, puramente hipotéticamente ser tan, que nuestros antepasados ​​con una resonancia en el oído medio de alrededor de 4 kHz tenían una ventaja sobre aquellos que tenían resonancias en otros lugares del rango de frecuencia audible, si alguna, debido a una percepción mejorada de la palabra hablada. Pero esto es total y puramente especulativo y sigue siendo una declaración sin referencia por la cual no deseo ser responsable de ninguna manera :-)


Ecualización de voces: qué sucede en cada rango de frecuencia en la voz humana

Ya no es un secreto que el espíritu de bricolaje en la producción de audio ha aumentado drásticamente en los últimos años. ¿No es genial cuánto control tenemos sobre nuestra propia música en estos días?

Si eres un productor de dormitorio como yo, probablemente estés ocupado creando música artística fresca en este momento. Pero probablemente te hayas dado cuenta de que la producción musical a menudo puede parecer más una ciencia que una forma de arte a veces. Cuando se trata de mezclar, comprender cómo las formas de onda y las frecuencias de audio contribuyen a la imagen sonora general cuando chocan o encajan cómodamente, puede hacer o deshacer su canción.

Y cuando se trata de la voz humana, el principal protagonista musical de la mayoría de los géneros musicales de hoy y, a menudo, el punto focal de una gran mezcla, es importante comprender cómo funcionan esas frecuencias. Y ahí es donde entra en juego el ecualizador.

He pasado horas mezclando mi propia voz en mi proyecto en solitario Unkenny Valleys (y todavía me tropiezo a veces), pero cuanta más experiencia obtengo produciendo, más escucho la brillantez y el poder en mis pistas vocales. También escuché que a lo largo de los años, los elementos de embotamiento y confusión han desaparecido. Así que hablemos un poco sobre la ecualización de las frecuencias vocales humanas.

Si desea obtener más ayuda para producir voces de gran sonido, obtenga una vista previa gratuita de nuestro curso Modern Pop Vocal Production para profundizar aún más.


Acústica de ondas

Filtrado de peine y bandas críticas

Everest (1994) proporciona un análisis interesante de la audibilidad del filtrado de peine, que se ilustra en la figura 6.17. La importancia de la percepción del filtrado de peine puede entenderse en términos del ancho de banda efectivo del filtro individual, en comparación con el ancho de una banda crítica. Cuando el retardo de tiempo entre fuentes es pequeño, (A) digamos 0,5 ms, el rango de frecuencias entre nulos es bastante amplio, mucho mayor que el ancho de una banda crítica a 1000 Hz, que es aproximadamente 128 Hz. Por tanto, el efecto del retraso es perceptible. Cuando el retardo de tiempo es grande, (C) digamos 40 ms, hay muchos nulos dentro de una banda crítica y los efectos están integrados por el oído y no son perceptibles. Esto ayuda a explicar por qué los efectos de filtrado de peine no son un problema en los grandes auditorios, donde los reflejos de una pared crean con frecuencia una señal retardada de 40 ms o más, sin colorear apreciablemente el sonido. En grupos de altavoces y estudios pequeños, las pequeñas desalineaciones de los altavoces y los reflejos de las superficies cercanas pueden ser bastante notables.

Figura 6.17. Audibilidad del filtrado de peine (Everest, 1994)


4pMU5 & # 8211 “Evolución del piano” & # 8211 Nicholas Giordano

El piano fue inventado hace 300 años por Bartolomeo Cristofori, quien en su & # 8220day job & # 8221 fue responsable de los instrumentos propiedad de la famosa familia Medici en Florencia, Italia. Muchos de esos instrumentos eran clavecines, y los primeros pianos eran muy similares a un clavecín con una diferencia crucial. En un clavicémbalo, las cuerdas se ponen en movimiento punteando (como en una guitarra) y la amplitud de un punteo es independiente de la fuerza con la que se presione una tecla. En un piano, las cuerdas se golpean con un martillo y Cristofori inventó un mecanismo inteligente (llamado piano & # 8220action & # 8221) a través del cual la velocidad del martillo y, por lo tanto, el volumen de un tono se controla mediante la fuerza con la que se pulsa una tecla. presionado. De esta manera, un pianista puede variar el volumen de las notas de forma individual, algo que no era posible con el clavicémbalo o el órgano, los instrumentos de teclado dominantes de la época. Esto le dio al piano nuevas capacidades expresivas que pronto fueron explotadas por compositores como Mozart y Beethoven.

La figura 1 muestra uno de los tres pianos Cristofori existentes. Está compuesto casi en su totalidad de madera (excepto las cuerdas) y tiene un rango de 4 octavas & # 8211 49 notas. Tiene 98 cuerdas (dos por cada nota), cada una sujeta a una tensión de aproximadamente 60 Newtons (alrededor de 13 libras), y es lo suficientemente liviana como para que dos adultos puedan levantarla fácilmente. Un piano moderno típico se muestra en la Figura 2. Tiene un rango de 7-1 / 3 octavas & # 8211 88 notas & # 8211 y más de 200 cuerdas (la mayoría de las notas tienen tres cuerdas), cada una sostenida a una tensión de alrededor de 600 Newtons. Este instrumento pesa casi 600 libras.

Título de la figura 1. Piano construido por Bartolomeo Cristofori en 1722. Este piano se encuentra en el Museo Nationale degli Strumenti Musicali de Roma. Imagen de Wikimedia Commons (wikimedia.org/wikipedia/commons/3/32/Piano_forte_Cristofori_1722.JPG). Los otros pianos fabricados por Cristofori y que aún existen se encuentran en el Museo Metropolitano de Arte de la ciudad de Nueva York y en el Musikinstrumenten-Museum de Leipzig.

Leyenda de la figura 2. Un típico piano moderno. Este es un modelo Steinway M que pertenece al autor. Foto de Lizz Giordano.

Mi artículo de la conferencia considera cómo el piano en la Figura 1 evolucionó al instrumento en la Figura 2. Como se describe en el artículo, esta evolución fue impulsada por una combinación de factores que incluyen las capacidades y limitaciones del sistema auditivo humano, las demandas de los compositores que van desde desde Mozart hasta Beethoven y Rachmaninoff, y desarrollos en tecnología como la disponibilidad del alambre de acero de alta resistencia que ahora se utiliza para las cuerdas.

Cuantas notas?

El piano moderno tiene casi el doble de notas que los pianos de Cristofori. Estas notas adicionales se agregaron gradualmente con el tiempo. La mayor parte de la música para teclado de J. S. Bach se puede tocar en las 49 notas de los primeros pianos, pero los compositores pronto quisieron más. Para la época de Mozart a fines del siglo XVIII, la mayoría de los pianos tenían 61 notas (un rango de cinco octavas). Se expandieron a 73 notas (seis octavas) para Beethoven a principios del siglo XIX y, finalmente, a las 88 notas que tenemos hoy alrededor de 1860. El rango de frecuencia cubierto por estas notas se extiende desde alrededor de 25 Hz hasta poco más de 4000 Hz. El oído humano es sensible a un rango mucho más amplio, por lo que uno podría preguntarse & # 8220¿por qué no & # 8217t tenemos aún más notas? & # 8221 La respuesta parece estar en la forma en que escuchamos tonos con frecuencias que están mucho más allá del rango del piano. La mayoría de las personas escuchan los tonos con frecuencias por debajo del rango del piano como clics [1], y tales tonos no serían útiles para la mayoría de los tipos de música. Los tonos con frecuencias muy por encima de la gama alta del piano plantean un problema diferente. En mucha música se tocan dos o más tonos simultáneamente para producir acordes y combinaciones similares. Resulta que nuestro sistema auditivo no es capaz de percibir tales relaciones & # 8220chordal & # 8221 para tonos muy por encima del rango del piano [1]. Por lo tanto, un compositor no puede utilizar estos tonos para formar los acordes y otras combinaciones de notas que son una parte esencial de la música occidental. El rango de notas que se encuentran en un piano está determinado por el sistema auditivo humano y es por eso que el número de notas que se encuentran en un piano no ha aumentado más allá de los límites alcanzados hace unos 150 años.

Mejorando las cuerdas

Las cuerdas del piano en el piano de Cristofori eran delgadas (menos de 1 mm de diámetro) y estaban compuestas de latón o hierro. Fueron mantenidos en tensiones de alrededor de 60 N, que probablemente era un poco más de la mitad de sus tensiones de ruptura, lo que proporciona un margen de seguridad. Un aumento de la tensión permite golpear la cuerda con más fuerza con el martillo, produciendo un sonido más fuerte. Por lo tanto, a medida que el piano se empezó a utilizar cada vez más como instrumento solista y las salas de conciertos crecieron en tamaño, los fabricantes de pianos necesitaron incorporar cuerdas más fuertes. Estas cuerdas mejoradas generalmente estaban compuestas de hierro con cantidades controladas de impurezas como el carbono. Las tensiones de las cuerdas utilizadas en el diseño de pianos aumentaron en un factor de 10 desde los primeros pianos hasta alrededor de 1860, momento en el que se disponía de cuerdas de acero para piano. El alambre de acero se sigue utilizando en los pianos modernos, pero la resistencia del alambre de acero moderno no es mucho mayor que el alambre disponible en 1860, por lo que este aspecto del diseño del piano no ha cambiado sustancialmente desde entonces.

Haciendo un caso más fuerte

El aumento del número de cuerdas en un piano moderno combinado con la mayor tensión de las cuerdas da como resultado fuerzas mucho mayores, en aproximadamente un factor de 20, en el caso de un instrumento moderno en comparación con el piano Cristofori. La caja de un piano antiguo estaba hecha de madera, pero los límites de una caja de madera se alcanzaron a principios del siglo XIX en los pianos que encontró Beethoven. Para hacer frente a este problema, los fabricantes de pianos agregaron varillas de metal y placas posteriores para fortalecer la carcasa, lo que dio lugar a lo que ahora se llama una "placa de metal completa". La placa ahora está compuesta de hierro (no se requiere acero ya que el hierro bajo compresión es bastante fuerte y estable) y es visible en la Figura 2 como la placa de color dorado que se extiende desde el frente hasta la parte posterior del instrumento. Algunos fabricantes de pianos se opusieron a agregar metal al piano, argumentando que le daría al tono un sonido “metálico”. Evidentemente, pudieron pasar por alto el hecho de que las cuerdas ya eran de metal. Curiosamente, la placa de metal completa fue la primera contribución importante al diseño de pianos por parte de un estadounidense, ya que fue introducida a mediados de la década de 1820 por Alphaeus Babcock.

Hacer un martillo de piano

A medida que aumentaba la tensión de las cuerdas, también era necesario rediseñar el martillo del piano. En la mayoría de los pianos antiguos, el martillo era bastante ligero (alrededor de 1 go menos), con una capa de cuero pegada sobre un núcleo de madera. A medida que aumentaba la tensión de las cuerdas, se necesitaba una cubierta más duradera, y el cuero fue reemplazado por fieltro a mediados del siglo XIX. Este cambio fue posible gracias a las mejoras en la tecnología de fabricación de fieltro con una densidad alta y reproducible. La masa del martillo también aumentó en un piano moderno, los martillos para las notas bajas (más bajas) tienen una masa más de 10 veces mayor que en los instrumentos de Cristofori.

¿Cómo ha cambiado el sonido?

Hemos descrito cómo las cuerdas, la caja, los martillos y el rango del piano han cambiado considerablemente desde que Cristofori inventó el instrumento, y también ha habido muchos otros cambios. Por tanto, no es sorprendente que los sonidos producidos por un piano antiguo puedan distinguirse de los de un piano moderno. Sin embargo, los tonos de estos instrumentos son notablemente similares, incluso el oyente casual reconocerá que ambos provienen de un "piano". Si bien hay muchas formas de juzgar y describir un tono de piano, las propiedades de los martillos son, en opinión del autor (un pianista aficionado), las principales responsables de las diferencias en los tonos de los pianos antiguos y modernos. La colisión entre el martillo y la cuerda tiene un efecto profundo en el tono, y la diferencia en la cubierta del martillo (cuero versus fieltro) hace que el tono de un piano temprano suene más "percusivo" y "punzante" que el de un moderno. piano. Esta diferencia se puede escuchar en los ejemplos de sonido que acompañan a este artículo.

El futuro del piano

Si bien el piano tiene ahora 300 años, su evolución desde los primeros instrumentos de Cristofori hasta el piano moderno se completó a mediados del siglo XIX. ¿Por qué el piano no ha cambiado durante los últimos 150 años? Hemos visto que gran parte de la evolución fue impulsada por mejoras en la tecnología, como la disponibilidad de alambre de acero que ahora se usa para las cuerdas. El alambre de acero moderno no es muy diferente al disponible hace más de un siglo, pero ahora se encuentran disponibles otros materiales para cuerdas. Por ejemplo, los alambres hechos de fibras de carbono pueden ser más fuertes que el acero y parecerían tener ventajas como cuerdas de piano [2], pero esta posibilidad no se ha explorado (todavía) de una manera más que teórica. De hecho, el gran éxito del piano ha hecho que los pianistas, intérpretes y oyentes se resistan a cambios importantes. Si bien es probable que se incorporen nuevas tecnologías o diseños a los pianos del futuro, parece probable que siempre suene muy parecido al instrumento que tenemos hoy.

La evolución del piano se describe con más detalle en un artículo del autor que aparecerá en Acústica hoy después en este año. En las Refs. Se pueden encontrar versiones mucho más extensas y detalladas de esta historia. 3 y 4.

[1] C. J. Plack, A. J. Oxenham, R. R. Fay y A. N. Popper (2005). Pitch: Percepción y codificación neuronal (Springer), Capítulo 2.

[2] N. Giordano (2011). & # 8220Evolución del hilo musical y su impacto en el desarrollo del piano, & # 8221 Actas de reuniones sobre acústica 12, 035002.

[3] E. M. Good (2002). Jirafas, dragones negros y otros pianos, 2a edición (Prensa de la Universidad de Stanford).

[4] N. J. Giordano (2010). Física del Piano (Prensa de la Universidad de Oxford).

Ejemplos de sonido

Ambos ejemplos de audio son el comienzo del primer movimiento de la sonata para piano de Mozart en Do mayor, K. 545. El primero se toca con un piano que es una copia de un instrumento como los que tocaba Mozart. El segundo ejemplo de audio se tocó con un piano moderno.

(1) Piano temprano. Interpretado por Malcom Bilson en una copia de c. 1790 Piano hecho por Paul McNulty (CD: Hungaroton Classic, Wolfgang Amadeus Mozart Sonatas Vol. III, Malcolm Bilson, fortepiano, HCD31013-14).

(2) Piano moderno. Interpretado por Daniel Barenboim en un piano moderno (Steinway) (CD: EMI Classics, Mozart, The Piano Sonatas, Catalog # 67294).


La oreja

Así como el ojo detecta ondas de luz, el oído detecta ondas de sonido. Los objetos que vibran (como las cuerdas vocales humanas o las cuerdas de una guitarra) hacen que las moléculas de aire se choquen entre sí y produzcan ondas sonoras, que viajan desde su fuente como picos y valles muy parecidos a las ondas que se expanden hacia afuera cuando se arroja una piedra a un estanque. . A diferencia de las ondas de luz, que pueden viajar en el vacío, las ondas de sonido se transportan dentro de medios como el aire, el agua o el metal, y son los cambios de presión asociados con estos medios los que detecta el oído.

Al igual que con las ondas de luz, detectamos tanto la longitud de onda como la amplitud de ondas sonoras. los longitud de onda de la onda de sonido (conocida como frecuencia) se mide en términos de la cantidad de ondas que llegan por segundo y determina nuestra percepción del tono, la frecuencia percibida de un sonido. Las ondas sonoras más largas tienen una frecuencia más baja y producen un tono más bajo, mientras que las ondas más cortas tienen una frecuencia más alta y un tono más alto.

La amplitud, o altura de la onda de sonido, determina cuánta energía contiene y se percibe como volumen (el grado de volumen del sonido). Las ondas más grandes se perciben como más fuertes. La sonoridad se mide usando la unidad de sonoridad relativa conocido como el decibel. Cero decibelios representan el umbral absoluto para la audición humana, por debajo del cual no podemos escuchar un sonido. Cada aumento de 10 decibeles representa un aumento de diez veces en el volumen del sonido (consulte la Figura 4.29 & # 8220 Sonidos en la vida cotidiana & # 8221). El sonido de una conversación típica (alrededor de 60 decibeles) es 1.000 veces más fuerte que el sonido de un susurro débil (30 decibelios), mientras que el sonido de un martillo neumático (130 decibelios) es 10 mil millones de veces más fuerte que el susurro.

Figura 4.29 Sonidos en la vida cotidiana

El oído humano puede escuchar cómodamente sonidos de hasta 80 decibeles. La exposición prolongada a sonidos superiores a 80 decibeles puede provocar pérdida de audición.

La audición comienza en el pabellón auricular la parte externa y visible de la oreja, que tiene la forma de un embudo para atraer ondas sonoras y guiarlas hacia el canal auditivo. Al final del canal, las ondas sonoras golpean el membrana muy estirada y muy sensible conocida como la membrana timpánica (o tímpano), que vibra con las ondas. Las vibraciones resultantes se transmiten al oído medio a través de tres huesos diminutos, conocidos como huesecillos: el martillo (o martillo), el yunque (o yunque) y el estribo (o estribo), hasta la cóclea. un tubo lleno de líquido con forma de caracol en el oído interno. Las vibraciones provocan la ventana ovalada, la membrana que cubre la abertura de la cóclea, para vibrar, perturbando el líquido dentro de la cóclea.

Los movimientos del líquido en la cóclea doblan las células ciliadas del oído interno, de la misma manera que una ráfaga de viento se inclina sobre los tallos de trigo en un campo. Los movimientos de las células ciliadas desencadenan impulsos nerviosos en las neuronas adheridas, que se envían al nervio auditivo y luego a la corteza auditiva en el cerebro. La cóclea contiene alrededor de 16.000 células ciliadas, cada una de las cuales contiene un haz de fibras conocido como cilios en su punta. Los cilios son tan sensibles que pueden detectar un movimiento que los empuja al ancho de un solo átomo. Para poner las cosas en perspectiva, los cilios que se balancean al ancho de un átomo equivalen a que la punta de la Torre Eiffel se balancee media pulgada (Corey et al., 2004).

Las ondas sonoras ingresan al oído externo y se transmiten a través del canal auditivo hasta el tímpano. Las vibraciones resultantes son movidas por los tres pequeños huesecillos hacia la cóclea, donde son detectadas por las células ciliadas y enviadas al nervio auditivo.

Aunque el volumen está directamente determinado por la cantidad de células ciliadas que vibran, se utilizan dos mecanismos diferentes para detectar el tono. La teoría de la frecuencia de la audición propone que Cualquiera que sea el tono de una onda de sonido, los impulsos nerviosos de una frecuencia correspondiente se enviarán al nervio auditivo. Por ejemplo, un tono que mide 600 hercios se transducirá en 600 impulsos nerviosos por segundo. Sin embargo, esta teoría tiene un problema con los sonidos agudos porque las neuronas no pueden disparar lo suficientemente rápido. Para alcanzar la velocidad necesaria, las neuronas trabajan juntas en una especie de sistema de volea en el que diferentes neuronas se disparan en secuencia, lo que nos permite detectar sonidos de hasta unos 4.000 hercios.

No solo es importante la frecuencia, sino que la ubicación también es fundamental. La cóclea transmite información sobre el área o lugar específico de la cóclea que se activa más con el sonido entrante. La teoría del lugar de la audición propone que diferentes áreas de la cóclea responden a diferentes frecuencias. Los tonos más altos excitan las áreas más cercanas a la apertura de la cóclea (cerca de la ventana ovalada). Los tonos más bajos excitan áreas cercanas a la punta estrecha de la cóclea, en el extremo opuesto. Por lo tanto, el tono está determinado en parte por el área de la cóclea que dispara con mayor frecuencia.

Así como tener dos ojos en posiciones ligeramente diferentes nos permite percibir la profundidad, el hecho de que las orejas estén colocadas a ambos lados de la cabeza nos permite beneficiarnos de una audición estereofónica o tridimensional. Si se produce un sonido en su lado izquierdo, el oído izquierdo recibirá el sonido un poco antes que el oído derecho, y el sonido que reciba será más intenso, lo que le permitirá determinar rápidamente la ubicación del sonido. Aunque la distancia entre nuestros dos oídos es de solo 6 pulgadas y las ondas sonoras viajan a 750 millas por hora, las diferencias de tiempo e intensidad se detectan fácilmente (Middlebrooks & amp Green, 1991). Cuando un sonido es equidistante de ambos oídos, como cuando está directamente al frente, detrás, debajo o arriba, tenemos más dificultades para identificar su ubicación. Es por esta razón que los perros (y las personas también) tienden a ladear la cabeza cuando intentan localizar un sonido, de modo que los oídos reciben señales ligeramente diferentes.


Un dúo de investigadores descubre pistas sobre por qué es tan horrible 'poner las uñas en una pizarra'

Área de audición entre el umbral en silencio y el umbral de dolor. También se indican las áreas abarcadas por la música y el habla y el área entre 2000 Hz y 4000 Hz, donde el oído humano es más sensible. Las partes de los sonidos en este rango de frecuencia fueron particularmente importantes para el malestar percibido (según Fastl & Zwicker, 2006, p. 17).

(Medical Xpress) - Demostrando que la ciencia no siempre es sólo diversión y juegos, dos investigadores con experiencia musical han realizado experimentos para llegar al fondo de por qué la gente se ve tan afectada por ciertos ruidos, como un tenedor arrastrado por un plato, Espuma de poliestireno chirriando o, lo que es más famoso, uñas arrastradas por una pizarra. Christoph Reuter de la Universidad de Viena & # 8217s Instituto Musicológico y Michael Oehler de la Universidad de Macromedia para Medios y Comunicación en Alemania, han logrado reclutar voluntarios para escuchar tales sonidos mientras se miden sus signos biológicos en busca de reacciones. Darán una presentación sobre sus hallazgos al Sociedad Acústica de América hoy dia.

Los dos hicieron que 104 voluntarios escucharan grabaciones de varios sonidos desagradables, 24 de ellos conectados a dispositivos que registraban su frecuencia cardíaca, presión arterial y respuesta galvánica de la piel (una medida de la conductancia de la piel, no exactamente una medida del grado de hormigueo de la piel, pero quizás cerca). Se pidió a todos los voluntarios que calificaran su nivel de incomodidad a medida que se reproducía cada sonido. Los sonidos reproducidos representaban una amplia frecuencia de sonidos, algunos llegaban hasta los 12.000 hercios.

Tras analizar los resultados los dos encontraron que los sonidos que más estrés producían en los voluntarios procedían del rango de 2.000 a 4.000 hercios, coincidencia o no, es el mismo rango que el producido por la voz humana. Esto era algo esperado ya que investigaciones anteriores de otros habían demostrado que las personas reaccionaban más a los tonos medios en el raspado de la pizarra que a los tonos altos, sin embargo, investigaciones anteriores no habían reducido el rango de frecuencia tan claramente.

Como parte del experimento, los voluntarios recibieron diferentes explicaciones sobre la fuente de los sonidos. A algunos se les dijo que un ruido que se tocaba era parte de una composición musical, mientras que a otros se les dijo la verdad, es decir, que en realidad era una grabación de uñas arrastradas por una pizarra, etc. suena menos desagradable, aunque sus cuerpos no estaban de acuerdo, mostrando tanta reacción como aquellos a quienes se les dijo lo que realmente eran los sonidos.

En algunos casos, los investigadores eliminaron algunas partes de las grabaciones, como las partes ruidosas de raspado, antes de reproducirlas para los voluntarios, pero eso parecía no tener una reducción perceptible de la angustia, lo que mostró que eran las frecuencias medias las que causaban el problema. , no las partes ásperas y ásperas.

Debido a que el ruido resultó ser más ofensivo cuando estaba en el mismo rango que la voz humana, los autores especulan que debido a que estudios anteriores han demostrado que el canal auditivo humano tiene una forma que amplifica las frecuencias en el rango de la voz humana, otros Los ruidos que aparecen en ese rango y que también se amplifican, parecen ser duros y ofensivos.

Los dos concluyen que la razón por la que las personas reaccionan tan mal cuando las uñas raspan una pizarra se debe al rango de frecuencia de los sonidos que se producen combinados con la estructura del canal auditivo, y que el efecto empeora cuando la persona que lo escucha conoce su fuente. .


ENMASCARADO Y SEGREGACIÓN AUDITIVA

Antecedentes sobre agrupación y segregación

Los entornos auditivos naturales como las aulas, los entornos domésticos, las áreas de entretenimiento y otros espacios públicos suelen ser complejos en términos de estimulación sensorial. En el dominio auditivo, el oyente se enfrenta a una cacofonía de información que varía en contenido, ubicación, identidad de la fuente, frecuencia, intensidad y otras, estas características también suelen ser dinámicas en lugar de estáticas, por lo que es probable que cambien con el tiempo. Es el trabajo del bebé o del niño aprender a lidiar con estos entornos, organizar la avalancha de estimulación en pepitas de información perceptibles, de modo que el niño pueda aprender sobre su entorno, alcanzar la capacidad del lenguaje y dominar numerosas habilidades que se basan en la comunicación auditiva.

En las etapas iniciales de la percepción auditiva, como se describió anteriormente en este capítulo, el sistema auditivo domina la capacidad de detectar y discriminar entre sonidos. Una etapa adicional de análisis requiere que se tomen decisiones con respecto a qué sonidos & # x0201c pertenecen juntos & # x0201d y deberían & # x0201c agruparse, & # x0201d y qué sonidos & # x0201c no pertenecen juntos & # x0201d y, por lo tanto, deberían & # x0201c segregar. & # x0201d Esta cuestión no se trata tanto de la categorización, sino que, en última instancia, se trata de la identificación de sonidos y la extracción de significado de las fuentes de sonido. La categorización puede ser relevante al determinar qué sonidos emiten los humanos frente a los no humanos, o decidir si los sonidos surgen de instrumentos musicales frente a los sonidos ambientales naturales (una corriente o el sonido del viento susurrando las hojas de un árbol). Por el contrario, la identificación y la extracción de información requieren que los oyentes sean capaces de segregar una fuente de sonido de otros sonidos del entorno. Por ejemplo, un niño que intenta escuchar la voz de su madre en una habitación llena de gente debe separar esa voz de interés de las voces de otras personas y otros sonidos del entorno. En cierto sentido, los & # x0201c otros sonidos & # x0201d pueden considerarse competidores o interferentes en la literatura psicoacústica clásica, también se les conoce como & # x0201cmaskers. & # X0201d El proceso básico a través del cual los mecanismos neuronales involucrados en la percepción son capaces de analizar varias fuentes de sonido y asignar significado a las fuentes de sonido apropiadas se ha denominado análisis de escena auditiva (ASA: Bregman, 1990). Un ejemplo más específico de ASA que ocurre con los sonidos del habla es el efecto cóctel (Cherry, 1953). La noción de Bregman & # x02019 era consistente con dos etapas & # x02013 una que es más & # x0201cprimitive & # x0201d y no requiere mucho aprendizaje o experiencia, y una segunda etapa que está & # x0201cschema-based & # x0201d y está organizada a través de cada oyente & # x02019s experiencias y habilidades aprendidas durante una vida de escucha. La mayor parte del trabajo realizado en el campo en general ha sido con sujetos adultos. El trabajo de desarrollo en esta área ha intentado principalmente comprender el caso & # x0201cprimitive & # x0201d de ASA, porque la falta de dependencia de la experiencia significa que podemos comenzar a comprender los mecanismos involucrados en la organización de los estímulos entrantes que existen en los oyentes jóvenes.

En la medida en que estos mecanismos existan a una edad temprana, pueden potencialmente servir como el andamiaje sobre el cual puede ocurrir una organización de la información basada en esquemas más complejos con la experiencia. Esta cuestión, por supuesto, se presta a preguntas fascinantes sobre las formas en que la privación de estimulación durante el desarrollo da como resultado la ruptura de las estructuras organizativas primitivas y / o las formas en que los esquemas pueden, de hecho, desarrollarse adecuadamente. Se sabe muy poco sobre el ASA y los efectos de la privación durante el desarrollo sobre la capacidad de los oyentes para organizar la información entrante una vez que se ha reactivado el sistema auditivo.

Una razón por la que se sabe poco sobre este tema es que no hay ejemplos de casos en los que los oyentes humanos hayan sufrido privación auditiva en una etapa temprana de la vida y hayan recuperado la audición natural a partir de ahora. Lo más cerca que podemos llegar a un experimento & # x0201cnatural & # x0201d de este tipo es estudiar los efectos de la privación auditiva en personas que nacen sordas y que pueden recibir estimulación auditiva más adelante en la vida a través de medios artificiales. Los avances tecnológicos actuales ofrecen el implante coclear (IC), que proporciona audición a través de la estimulación eléctrica del nervio auditivo (Wilson y Dorman, 2008). Una advertencia importante es que el IC no restaura la audición normal a los receptores, sino que la señal auditiva se ve comprometida por la degradación espectral, la baja especificidad de la estimulación a lo largo del mapeo tonotópico (dependiente de la frecuencia) del sistema auditivo y la muerte neuronal después de la privación, para nombrar algunas limitaciones (Shepherd y Hardie, 2001 ver Litovsky et al., 2012). Thus, interpretation of data on how deprivation might affect ASA are unavoidably compromised by the inability to know whether poor performance following auditory stimulation with a CI is attributable to the CI-related issues or to factors related to the deprivation per se.

Energetic masking

The concept of energetic masking was introduced when another form of masking, known as informational masking, became prominent in the literature (see below). Energetic masking is thought to be the interference produced by noise or other stimuli that can vary in characteristic, but that share features with the target sound, and can be accounted for by considering the peripheral auditory system. A simple example of energetic masking is when a noise burst occurs simultaneously with a tone, and the two-frequency bandwidth of the noise is centered around the frequency of the. In energetic masking, one sound interferes with our ability to detect or otherwise hear another sound because the two sounds excite similar auditory neurons in the periphery, thereby limiting the extent to which information about the target can be perceived in the presence of the masker (Fletcher, 1940). Several studies have examined the ability of infants and children to detect a signal in background noise, either when the sounds are presented simultaneously, or when they are temporally offset. For simultaneous masking detection, thresholds of infants aged 6� months are higher than those of adults by 15� dB (e.g., Bull et al., 1981 Bargones et al., 1995), suggesting that their ability to extract a simple signal in background noise is worse than that of adults. Similar to the thresholds discussed above for detecting signals in quiet, there appears to be a more rapid maturation for hearing signals in noise, with high-frequency thresholds reaching adult-like performance sooner than low-frequency thresholds (e.g., He et al., 2010).

Auditory streaming

The field of perception has broadly defined relevant terms that address the fascinating problem of ASA. For example, auditory streaming refers to the notion that when listeners are presented with sounds that share some dimensions and vary along other dimensions, they perceive them either as one coherent sound, or as two distinct sounds. A classic example of auditory streaming is when two sequences of tones that vary in frequency are presented the more similar the frequencies, the more likely it is that listeners will perceive a single, coherent auditory image. Auditory stream formation appears to depend on acoustic parameters, including frequency, spatial locations, sex of the talker, spectrum, and common temporal onsets/offsets (Bregman, 1990 Yost, 1997). Using a method whereby infants are habituated to a signal, then dishabituated to a novel stimulus, it has been shown that by the age of

4 months infants can use similar acoustic cues to those used by adults to perceive two stimuli as either belonging to a single stream or to two streams (McAdams and Bertoncini, 1997). It is important however to note that the sensitivity to these cues was not measured with these studies, thus it remains to be understood whether infants need the same amounts of cue similarity or difference in order for the effect to be operative.

In contrast to studies with infants, by the time that children are 4𠄵 years of age, methods for testing auditory perception can be fairly similar to methods used in adults. When children and adults were tested on their ability to hear one or two tone sequences, developmental changes have been observed between children who are 8 years old or younger and children ages 9� years. Older children, like adults, required small differences between the frequencies of the two tone sequences in order to perceptually segregate them into two “streams” whereas younger children required larger frequency differences in order to hear the tone sequences as segregated (Sussman et al., 2007). These findings suggest that ASA, as measured with auditory streaming, develops well into school-age years, as will be discussed below for a number of other auditory abilities.

Co-modulation masking release

Auditory grouping can also be studied using a completely different paradigm, known as co-modulation masking release (CMR), which was originally described by Hall et al. (1984). This fascinating perceptual phenomenon can be elicited under conditions when a target signal is masked by another sound that has intensity fluctuations known as amplitude modulations. When a masker at a frequency that is different from that of the target signal is added, and has the same temporally varying modulations in intensity, i.e., when the target signal and added masker are 𠇌o-modulated” in time, the two sounds are perceptually grouped and perceived as a single auditory image. This grouping leads to benefits in signal detection, i.e., reduction in listeners’ thresholds for hearing the target signal. Studies on CMR in children suggest that, although children experience more masking in the presence of noise compared with adults, when the added co-modulated noise is introduced, they show similar amounts of benefit as adults. Thus, CMR is adult-like under certain conditions, suggesting that mechanisms involved in grouping under noisy conditions, and the ability to benefit from the temporally co-modulated noise, are developed by 4𠄵 years of age (Veloso et al., 1990 Grose et al, 1993). Other studies have shown that CMR can also undergo more protracted maturation, for example, when the target signal and noise are both modulated, but with a temporal asynchrony between them. In that scenario, CMR in children was eliminated, whereas in adults the effect was reduced relative to the condition with temporal synchrony (Hall et al., 1997).

Informational masking

An important concept in the context of how it is that we extract information in complex auditory scenes is that of informational masking. In contrast to energetic masking (see above), informational masking refers to masking that cannot be accounted for by peripheral mechanisms, for example when a tone is difficult to hear despite the fact that the masking noise is presented at a frequency region that is remote and that stimulates a different population of auditory neurons. A simple example of informational masking is when a series of “off-frequency” tones change in frequency through time in a manner that is unpredictable each time they are presented. Because the listener does not know which aspects of the spectral, temporal, or other features of the masker to ignore, uncertainty occurs, which results in increased threshold for the target tone. In other words, informational masking might simply indicate that the listener is confused about which features of the stimulus belong to the target and which to the masker (Durlach et al., 2003).

Studies on informational masking began to get attention 30� years ago (Watson et al., 1976 Neff and Green, 1987), when several paradigms were implemented using tone bursts to study the ability of adults with normal hearing to hear tones in the presence of multitonal background maskers, or “interferers,” whose content was varied in an unpredictable manner. By randomizing the frequencies of the tones from presentation to presentation, researchers introduced uncertainty about what listeners should ignore. This was quite unlike, then traditional, studies with energetic masking, where the maskers are consistent across presentations, and listeners know what sound to ignore and which sound to attend to. Informational masking was defined then as the amount of masking observed, above and beyond that which was observed with energetic masking conditions. This paradigm resulted in demonstrating vast individual differences (Oh and Lutfi, 1998). In addition, there is an interesting non-monotonic relationship between the amount of masking and the number of tones, such that, with a small number of tones, as more are added masking increases, suggesting that the confusability or uncertainty may be related to attention or memory load. However, at some stage the increase in number of tones results in the tone complex being perceived as a noise with little information, hence the amount of masking begins to drop (e.g., Neff and Green, 1987 Oh and Lutfi, 1998).

This paradigm has been successfully applied to studies with infants and children and has led to important findings regarding auditory development. In general, studies suggest that infants and children are more vulnerable to effects of informational masking, that is, the amount of masking they experience is larger than that seen in adults (e.g., Oh et al., 2001 Leibold and Werner, 2006). Lutfi et al. (2003) investigated informational masking using tone bursts in 38 children aged 4� years, and focused on identifying potential sources of variability to account for different strategies that children might use to perform on this task. The authors concluded that, under easy-listening conditions, children generally utilize what is in the world of psychoacoustics known as an “optimal” decision strategy to solve this problem. However, in the informational-masking paradigm, differences between children existed at all ages, as is commonly found in other studies on auditory development. Moreover, these were thought to reflect the extent to which uncertainty in the masker affects the ability of the child to 𠇏ocus in” on the signal. However, the authors did not discuss the possibility of utilizing this tool for ultimately measuring auditory-based, but not speech- or language-based, attention and memory in children.

Leibold and colleagues have also examined effects of uncertainty when masker spectra do not vary, and found developmental differences, suggesting that infants and children are perhaps generally poorer at segregating the target from masker, even when there is uncertainty regarding “what to ignore” (Leibold and Werner, 2006 Leibold and Neff, 2007). This clearly suggests that the conclusion regarding developmental effects depends on exactly how the experiments are set up and what the stimuli and tasks consist of. Nonetheless, the fact that developmental findings are clearly found suggests that there are reasons to be concerned about the ability of children to listen in complex, realistic acoustic environments, where sound sources vary in many features, including location, number, time, spectrum, and amplitude. More emphasis on effects of location and reflections is placed on sections below, where spatial hearing is discussed. In general, when it comes to speech sounds and the effects of informational vs energetic masking, again the issue revolves around the extent to which the masker is similar to the target, and thus the extent to which the two can be confused with one another. For example, the voice of one person can be easily confused with that of another if the two are similar, and if the content overlaps. In contrast, different voices, such as those of a young child (high pitch) uttering a nursery rhyme vs a male with low fundamental frequency talking about the stock market, are less likely to be confused.

Furthermore, there is the issue of whether content can be extracted from the maskers vs whether it sounds like noise. Newman (2005) found that infants can recognize known words in the presence of multitalker babble, which is more similar to noise and has less discernable content than speech, and in contrast they failed to do so in the presence of a single “masking” talker, perhaps because its content was more distracting and thus confusing. Finally, there is the added issue of whether the sounds are familiar to the infants. Barker and Newman (2004) found that when the target voice was their own mother (thus familiar), infants were better able to understand speech in the presence of background talkers compared with a situation in which the voice was not familiar. Performance is also measured by obtaining the signal-to-noise ratio (level in decibels of the target re: the masker) that is needed for the target to be understood. Compared with adults, infants generally require a higher signal-to-noise ratio than adults in order to recognize their name in the presence of a noise masker (Newman and Jusczyk, 1996). These level differences are generally higher for children than for adults (Elliott et al., 1979 Nittrouer and Boothroyd, 1990 Hall et al., 2002 Litovsky, 2005).

These studies are also related to the issues described above in relation to the cocktail-party effect, and raise the issue of whether children are simply poorer at selectively attending to the target stimulus in the presence of the masker. Some of the more interesting studies in this area are done with event-related potentials, which measure physiologic responses in the central auditory pathways. For example, when adults and children were each asked to attend to one of two passages read to them, the brain activity as measured with the N1 wave was not adult-like at age 6𠄸 years (Coch et al., 2005). While somewhat remote from neural mechanisms involved in the task, one might argue that lacking characteristics that are adult-like in brain waves may reflect the immaturity that is observed in behavioral studies. It is not surprising that neural maturity for central processing of complex information continues to mature beyond ages 6𠄸 years. Cortical maturation is known to extend into the late teenage years, and effects of experience are certainly bound to have significant effects on these maturational changes.

Backward masking and auditory maturation

As discussed below, one way to study masking is to present signal and noise at the same time and to vary few parameters. Thus, the interference from the noise can be easily accounted for by peripheral mechanisms. In contrast, backward masking is studied by presenting the signal before the noise hence, a more central mechanism that weights information arriving from the signal and noise must be considered. In fact, it appears that, unlike simultaneous masking, which is adult-like by age 6� years, backward masking results in significantly worse performance in children than adults. It has been suggested that temporal resolution is involved in backward masking and is an ability that continues to refine during childhood (Hartley et al., 2000). The physiologic mechanisms underlying these developments are not well understood, but it has been suggested that peripheral frequency resolution cannot explain these findings (Spetner and Olsho, 1990).

Backward-masking paradigms have been ubiquitous in studies with populations of children who demonstrate language delays and reading disorders. It appears that maturational delays in auditory functioning of information that requires temporal processing, such as backward masking and other masking paradigms with signal/masker delays. It has been argued that language deficits may result from limitations in auditory processing (Wright et al., 1997), which may have implications for diagnosis and/or remediation in children with language impairment or other disorders with a related underlying mechanism. Wright et al. (2000) argued that brains of individuals with language delays and reading disorders develop at a slower rate than brains of their unaffected peers. They honed in on the age of � years, when brain changes associated with onset of puberty could affect perceptual development. Numerous other studies have identified interactions between delayed brain maturation and perceptual and cognitive abilities and suggest that puberty may be an important factor contributing to learning problems (Doupe and Kuhl, 1999 Bourgeois et al., 2000).

Finally, the field of rehabilitation, training, and remediation for those affected with learning disorders is robust and the treatment options are beyond the scope of this chapter. One interesting point, however, is whether effects of treatment or training can be captured in the neural representation of cues that are important for perception, including speech cues. There appears to be some evidence for short-term training effects on improving neural representations of auditory cues that are known to be important for understanding speech in noise (i.e., masked speech). This evidence comes from measurements of biologic responses at the level of the brainstem (Song et al., 2012).


Consonance and Dissonance

Two tones are said to be consonant if their combination is pleasing to the ear, and dissonant if displeasing. The simplest approach to quantifying consonance is to say that two tones are consonant if their frequencies are related by a small integer ratio. The ratio determines the musical interval. For example, the octave 2:1, fifth 3:2, and fourth 4:3 are presumed to be universally consonant musical intervals because most persons in any culture or period of history have considered them to be pleasing tone combinations and have built musical compositions around them.

For example, in the buildup of a pentatonic scale by a circle of fifths, a natural whole tone of ratio 9/8 emerges, satisfying the condition for consonance. A semitone like E-F also emerges, and the ratio 256/243 suggests dissonance.

When you define "consonance" as "pleasing to the ear", then of course you have to ask "whose ear?". You can get into such intense debate about what is "pleasing" that some have come to define music as "sounds organized by human beings" to accede the endless variety. The use of consonance here is limited to giving a suggestion of a simple rule that yields musical intervals that are pleasing to most people, i.e., "consonant".


Why can an opera singer be heard over the much louder orchestra?

In both speech and singing, we produce sustained vowel sounds by using vibrations of our vocal folds&mdashsmall flaps of mucous membrane in our voice box (or Adams apple)&mdashthat periodically interrupt the airflow from the lungs. The folds vibrate at a fundamental frequency, fo, which determines the pitch of the sound. In normal speech fo is typically between 100 to 220 hertz (Hz), or vibrations per second. In contrast, a soprano's fundamental frequency ranges anywhere from 250 to 1,500 Hz. The complicated motion of the vocal folds means that speech and singing also contain a series of harmonics&mdashwhich are basically multiples of the frequency in question&mdashwith frequencies of 2fo, 3fo, 4fo, and so on.

Usually, the fundamental frequency has the greatest acoustic power, but the very high harmonics, although less powerful, have the advantage of residing in a range above about 3,000 Hz, where the orchestral accompaniment provides less competition. Sopranos have an advantage over lower voices, such as the bass and tenor: Due to their higher range, the auditory frequency at which they sing, as represented by their fo, lies in the neighborhood of frequencies to which the ear is most sensitive. In contrast, the lower fundamental frequencies of male voices cannot compete as easily with the power of an orchestra male singers, therefore, must often rely on their higher harmonics in order to be heard.

Classically trained sopranos also make use of a technique called "resonance tuning" to intensify the vibrations of the vocal folds and increase the power of the voice. The vocal tract&mdashthe "pipe" between the voice box and the mouth&mdashhas a series of resonance frequencies (R1, R2, R3, et cetera), which provide an effective transfer of acoustic power from the vibrating vocal folds to the surrounding air. Harmonics that fall at or near these resonance frequencies are most efficiently radiated as sound.

The two lowest frequency resonances, R1 (approximately 300 to 900 Hz) and R2 (approximately 800 to 3,000 Hz), play an important role in speech, providing high power for harmonics of fundamental frequencies that are close to them. Further, we can vary resonance frequencies by moving our tongue, lips, jaw, and so on. Thus, adjusting the configuration of the mouth alters R1 and R2, and this in turn changes which harmonics are emphasized.

In singing, the fundamental frequency determines the pitch, which is specified by the composer or performer. Singers can significantly increase their loudness by adjusting the resonance frequencies of their vocal tract to closely match the fundamental frequency or harmonics of the pitch. Sopranos can sing with fundamental frequencies that considerably exceed the values of R1 for normal speech, but if they left R1 unaltered, they would receive little benefit from this resonance. Consequently they tune R1 above its value in normal speech to match fo and thus maintain volume and homogeneity of tone. This is often achieved by opening their mouth wide as if smiling or yawning for high notes, which helps the tract act somewhat like a megaphone. (This tuning of R1 away from its values in normal speech, as well as the large spacing between harmonics, has implications for intelligibility, and is one reason why singers can be hard to understand at very high pitch.) Singers at lower pitch sometimes tune R1 to match harmonics (for example, 2fo) rather than the fundamental, but do not usually practice resonance tuning as consistently as sopranos.

Although singers can generate very loud sounds, how can they compete with a large and enthusiastic symphony orchestra?

One strategy is to maximize their sound output at frequencies above 2,000 Hz. This is because an orchestra is typically loudest around 500 Hz, with the sound level dropping off quickly at higher frequencies. Furthermore, the ear is most sensitive around 3,000 to 4,000 Hz. To this end, singers often modify the resonances of their tract to produce a characteristic "vocal ring" that considerably boosts the sound output in this frequency range. This is of more value to lower pitched voices than to sopranos.

Another factor that helps is the nature of the sound produced by an opera singer. Opera singers traditionally use much more vibrato&mdasha slow, cyclic variation or "wobble" in pitch&mdashcompared to orchestral musicians. This helps the signal processing within our auditory system to distinguish the voice of a singer as something quite different from the surrounding instrumentation of the orchestra. Furthermore, it is quite likely that there has been considerable selection pressure to pay attention to very loud sounds produced by people in any context, as such sounds can be a warning of impending danger.

For more information, Dr. Smith recommends visiting these two websites on acoustics in speech and music.


Fuentes

IQWiG health information is written with the aim of helping people understand the advantages and disadvantages of the main treatment options and health care services.

Because IQWiG is a German institute, some of the information provided here is specific to the German health care system. The suitability of any of the described options in an individual case can be determined by talking to a doctor. We do not offer individual consultations.

Our information is based on the results of good-quality studies. It is written by a team of health care professionals, scientists and editors, and reviewed by external experts. You can find a detailed description of how our health information is produced and updated in our methods.


Ver el vídeo: Anatomía del OÍDO HUMANO explicado FÁCIL (Noviembre 2022).