Résumés / Abstracts

Cette page comprend les résumés de toutes les conférences préenregistrées et des ateliers du Forum Ircam, ainsi que les biographies des conférenciers et une sélection de notes de programme musical. Les textes sont classés par ordre alphabétique dans trois catégories : intervenants de l'Ircam, compositeurs invités et conférenciers. L'index en haut de cette page offre des raccourcis directs vers chaque entrée. Le cas échéant, chaque résumé comprendra un lien vers la vidéo ou la réunion Zoom concernée. Les sessions de discussion pour chaque présentation auront lieu dans le cadre de tables rondes thématiques (voir Programme / Program).

This page includes abstracts of all the pre-recorded talks and IRCAM Forum Workshops, as well as presenter biographies and selected musical program notes. Texts are arranged alphabetically within three categories: IRCAM presenters, guest composers, and conference speakers. The index at the top of this page offers direct shortcuts to each entry. Where applicable, each abstract will include a link to the relevant video or Zoom workshop. Q&A sessions for each presentation will take place in topical round tables (see Programme / Program).

INTERVENANTS IRCAM / IRCAM PRESENTERS
Thibaut Carpentier, Atelier du Forum IRCAM / IRCAM Forum Workshop (spatialisation / spatialization)
Carmine Emanuele Cella, Atelier du Forum IRCAM / IRCAM Forum Workshop (orchestration assistée par ordinateur et Orchidea / computer-assisted orchestration and Orchidea)
Simone Conforti, Atelier du Forum IRCAM / IRCAM Forum Workshop (“Within the sound” : recherche de nouveaux sons via TS2 / “Within the sound”: searching novel sounds via TS2)
Philippe Esling, Atelier du Forum IRCAM / IRCAM Forum Workshop (orchestration assistée par ordinateur et IA / computer-assisted orchestration and AI)
José Miguel Fernández, Atelier du Forum IRCAM / IRCAM Forum Workshop (Score centralisé : AntesCollider et autres applications artistiques dans Antescofo / Centralized score: AntesCollider and other artistic applications in Antescofo)
Jean-Louis Giavitto, Atelier du Forum IRCAM / IRCAM Forum Workshop (Concevoir des systèmes cyber-temporels avec Antescofo / Designing cyber-temporal systems with Antescofo)

COMPOSITEURS INVITÉS / GUEST COMPOSERS
Sasha Blondeau
Marilou Buron
Zosha Di Castri
Jean-Luc Hervé
Philippe Leroux
James O'Callaghan
Georgia Spiropoulos
...du Studio de composition numérique de McGill / from the McGill Digital Composition Studio...
Omer Barash
Joy Blanchard
Xue Han
Jonas Regnier

CONFÉRENCIERS / SPEAKERS
Aurélien Antoine, Philippe Depalle, and Stephen McAdams (McGill University), Harnessing the Computational Modelling of the Perception of Orchestral Effects for Computer-Aided Orchestration Tools
Denis Beuret, Ensemble virtuel, un programme qui groove
Monica L. Bolles, Orbits: An exploration in spatial audio and sonification
Linda Bouchard (Concordia University, residency at Matralab), Live Structures / Structures vivantes
Jeffrey Boyd, Friedemann Sallis, Martin Ritter (University of Calgary), The hallucinogenic belfry: analyzing the first forty measures of Keith Hamel's Touch for piano and interactive electronics (2012)
Amy Brandon (Dalhousie University), Composing for AR space: creating interactive spatial scores for the METAVision headset
Taylor Brook (Columbia University), Agency and Meaning of Computer-Generated Music in Virtutes Occultae
Michael Century (Rensselaer Polytechnic Institute), Performance-demonstration of Pauline Oliveros’s Expanded Instrument System for HoA using Spat
Christopher Chandler (Union College), The Generative Sound File Player: A Corpus-Based Approach to Algorithmic Music
Carlos Delgado, Real-time Gestural Control of Sound Synthesis, Spatialization, and Video Effects Parameters
François-Xavier Féron (STMS Lab [CNRS, Ircam, Sorbonne Université]), Cédric Camier (Saint-Gobain Recherche, CIRMMT), Catherine Guastavino (McGill University, CIRMMT), The sound centrifuge: spatial effects induced by circular trajectories at high velocity
Emilie Fortin and Sophie Dupuis, Reconceptualiser une oeuvre interdisciplinaires: Known Territories 2.0
Matthew D. Gantt (Rensselaer Polytechnic Institute), Sound and Virtuality: Creative VR, Ambisonics and Expanded Composition
Nicola Giannini (Université de Montréal, CIRMMT), Eyes Draw Circles of Light, acousmatic piece for dome of speakers
Louis Goldford (Columbia University), Assisted Orchestration, Spatialization, and Workflow in Two Recent Compositions
Andrea Gozzi (SAGAS—University of Florence), Listen to the theatre! Exploring Florentine performative spaces
Florian Grond and Wieslaw Woszczyk (McGill University), Exploring the possibilities of navigating and presenting music performances with a 6DoF capture system
Catherine Guastavino, Valérian Fraisse (McGill University, CIRMMT), Simone d'Ambrosio, Etienne Legast (Audiotopie), Maryse Lavoie (Le Plateau de Mont-Royal), Spatial sound art in public spaces
Rob Hamilton (Rensselaer Polytechnic Institute), Virtual Instrument Design for the 21st Century
Lena Heng and Stephen McAdams (McGill University), Timbre’s function in perception of affective intents. Can it be learned?
Erica Y. Huynh (McGill University), Joël Bensoam (IRCAM), and Stephen McAdams (McGill University), Bowed plates and blown strings: Odd combinations of excitation methods and resonance structures impact perception
Jack Kelly (McGill University), SPAT tools for presence research in immersive music reproduction
Han-Na Kim (University of Toronto), Timbre Saturation for Chamber Orchestra
Ludovic Landolt, Musique Éternelle - Bourdon et occurrences harmoniques des cloches
Dongryul Lee (University of Illinois at Urbana-Champaign), A Thousand Carillons: Acoustical Implementation of Bell Spectra Using the Finite Element Method and Its Compositional Realization
Stephen McAdams, Meghan Goodchild, Alistair Russell, Beatrice Lopez, Kit Soden, Er Jun Li, Alfa Barri, Shi Tong Li, and Félix Baril (McGill University), The Orchestration Analysis and Research Database (Orchard)
Landon Morrison (Harvard University), Computer-Assisted Orchestration, Format Theory, and Constructions of Timbre in New Media Culture
Ben Neill (Ramapo College of New Jersey), Fantini Futuro
Anésio Azevedo Costa Neto (Instituto Federal de São Paulo—IFSP / Universidade de Brasília / IDMIL—McGill University), Cerrado—Applying spatialization techniques to expanded perceptive fields
Jason Noble (McGill University), A case study of the perceptual challenges and advantages of homogeneous orchestration: fantaisie harmonique (2019) for two guitar orchestras
Robert Normandeau (Université de Montréal), ControlGRIS/SpatGRIS3: Les outils de spatialisation développés à l'UdeM
James O’Callaghan, Alone and unalone: conceptual concerns in simultaneous headphone and speaker diffusion
Ofer Pelz and Matan Gover (CIRMMT), Sound Tracks: An interactive video game composition
Diego Quiroz (McGill University), Gestural Control for immersive recordings using Leap Motion for SPAT:Revolution
Laurie Radford (University of Calgary), Getting into Place/Space: The Pedagogy of Spatial Audio
Jacques Rémus (Ipotam Mécamusique), Les Thermophones, récentes évolutions et spatialisation
Lindsey Reymore (McGill University), Instrument Qualia, Timbre Trait Profiles, and Semantic Orchestration Analysis
Marlon Schumacher and Núria Giménez-Comas, Sculpting space
Nadine Schütz (Artistic Residency IRCAM), Land Sound Design
Christopher Trapani, L'orchestre augmenté: Spinning in Infinity
Roxanne Turcotte (CMCQ SMCQ), Les oiseaux de Nias
Marcel Zaes (Brown University), #otherbeats: Resisting the Grid — Performing Asynchrony
Tiange Zhou (UC San Diego), LUX FLUX: Design sound and light work in Max/Msp through DMX




INTERVENANTS IRCAM / IRCAM PRESENTERS

Thibaut Carpentier
Atelier du Forum IRCAM / IRCAM Forum Workshop (spatialisation / spatialization)
vidéo / video

Thibaut Carpentier est ingénieur de recherche au sein du laboratoire STMS (Sciences et Technologies de la Musique et du Son) hébergé à l'Ircam. Il étudie l'acoustique à l'École centrale et le traitement du signal à Télécom ParisTech, avant d'intégrer le CNRS en 2009. Rattaché à l'équipe Espaces acoustiques et cognitifs, ses travaux portent sur la spatialisation sonore, la réverbération artificielle, l'acoustique des salles, et les outils informatiques pour la composition et le mixage 3D. Il est le développeur principal et responsable du projet Spat et de la station de mixage et de post-production 3D Panoramix. En 2018, il est lauréat de la médaille de Cristal du CNRS.

Thibaut Carpentier is a research engineer in the STMS Lab (Sciences and Technologies of Music and Sound) at Ircam, Paris. He studied acoustics at the Ecole Centrale and signal processing at Télécom ParisTech, before joining CNRS (French National Center for Scientific Research) in 2009. As a member of the Acoustics & Cognition Team, his work focuses on sound spatialization, artificial reverberation, room acoustics, and computer tools for 3D composition and mixing. He is the lead developer and head of the Spat project as well as the 3D mixing and post-production workstation Panoramix. In 2018, he was awarded the CNRS Cristal medal.


Carmine Emanuele Cella
Atelier du Forum IRCAM / IRCAM Forum Workshop (orchestration assistée par ordinateur et Orchidea / computer-assisted orchestration and Orchidea)
diaporama / slides, vidéo / video

La session se concentrera sur le développement récent et futur des outils d'orchestration assistée par ordinateur, avec un accent particulier sur l'intégration de ces techniques dans un processus de composition. Une discussion générale sur l'informatique créative pour la création musicale suivra.

The session will focus on the recent and future development of the tools for computer-assisted orchestration, with a particular focus on the integration of such techniques in a compositional process. A general discussion about creative computing for musical creation will follow.

BIOGRAPHY
Carmine Emanuele Cella est un compositeur de renommée internationale qui a fait des études supérieures en mathématiques appliquées. Il a étudié au Conservatoire de musique G. Rossini, en Italie, où il a obtenu une maîtrise en piano, en informatique musicale et en composition, et à l'Accademia di S. Cecilia, à Rome, où il a obtenu un doctorat en composition musicale. Il a également étudié la philosophie et les mathématiques et a obtenu un doctorat en logique mathématique à l'Université de Bologne, avec une thèse intitulée "On Symbolic Representations of Music" (2011). Après avoir travaillé à l'IRCAM en 2007-2008 en tant que chercheur et à nouveau en 2011-2012 en tant que compositeur en résidence, Carmine Emanuele Cella a mené des recherches en mathématiques appliquées à l'École Normale Supérieure de Paris, de 2015 à 2016, avec Stéphane Mallat. Toujours en 2016, il est en résidence à l'Académie américaine de Rome, où il travaille sur son opéra Pane, sale sabbia, qui sera créé en juin 2017 à l'Opéra national de Kiev. De 2017 à 2018, il a travaillé sur l'orchestration assistée par ordinateur à l'Ircam - un sujet proposé depuis longtemps par Boulez-, et a réussi à proposer des solutions innovantes qui font l'objet d'un consensus au sein de la communauté. Depuis janvier 2019, Carmine est professeur assistant en musique et technologie au CNMAT, Université de Californie, Berkeley.

Carmine Emanuele Cella is a composer of international renown who has pursued advanced study in applied mathematics. He studied at the Conservatory of Music G. Rossini in Italy, where he obtained a master's in piano, music technology, and composition, and at the Accademia di S. Cecilia in Rome, where he received a doctorate in music composition. I also studied philosophy and mathematics at the University of Bologna, with a thesis titled "On Symbolic Reprentation of Music" (2011). After working at IRCAM as a researcher in 2007-08 and as composer-in-residence in 2011-12, Cella pursued research in applied mathematics at the École Normale Supérieure de Paris from 2015 to 2016 with Stéphane Mallat. In 2016, he was in residence at the American Academy in Rome, where he worked on his opera Pane, sale sabbia, which was premiered in 2017 at the National Opera of Kiev. From 2017 to 2018, he worked on computer-assisted orchestration at IRCAM (a subject proposed much earlier by Boulez) and succeded in proposing innovative and broady accepted solutions. Since January 2019, Cella is Assistant Professor of Music and Technology at CNMAT, University of California, Berkeley.


Simone Conforti
Atelier du Forum IRCAM / IRCAM Forum Workshop (“Within the sound” : recherche de nouveaux sons via TS2 / “Within the sound”: searching novel sounds via TS2)
vidéo / video

Il s'agira d'un workshop sur TS2 et ses dernières fonctionnalités, dans le contexte de la conception et de la composition sonore, centré sur la façon de détecter des propriétés sonores qui sont normalement invisibles/inaudibles lorsque nous regardons/écoutons les sons sans décomposer leur structure. Grâce à la manipulation du temps et des propriétés spectrales, TS2 permet de restituer des détails qui sont normalement imperceptibles pour l'oreille humaine. Grâce à sa lentille sonique spéciale, il est possible de générer de nouveaux sons à partie de la source originale et d'élargir l'exploration et la création de contenus sonores.

It’s a workshop about TS2 and its latest features, within the context of sound design and sound composition, focused on how to discover sonic properties that are normally invisible/inaudible when we look/listen to sounds without decomposing their structure. Through the manipulation of the time and the spectral properties, TS2 allows to retrieve details that are normally hidden to the human ear. Thanks to its special sonic lens it is possible to generate new sounds from the original source and widen the exploration and the creation of sonic contents.

BIOGRAPHY
Compositeur, réalisateur en informatique musicale, concepteur sonore et développeur de logiciels. Né à Winterthur, il est diplômé en flûte et en musique électronique et enseigne dans le département pédagogique de l'IRCAM à Paris et travaille comme réalisateur en informatique musicale au CIMM de Venise. Spécialisé dans les arts interactifs et multimédia, son travail passe également par une intense activité de conception technologique orientée vers la musique. Dans ce domaine, il a développé de nombreux algorithmes qui vont de la spatialisation du son et de la virtualisation de l'espace au masquage du son et à la musique générative. Co-fondateur et directeur technique de MUSICO, anciennement co-fondateur de MusicFit et de MUSST, il a travaillé pour Architettura Sonora, et comme chercheur pour l'université de Bâle, le centre de recherche MARTLab à Florence, le HEM Genève et le HEMU à Lausanne. Il a été professeur d'électroacoustique aux Conservatoires de Florence et de Cuneo.

Composer, computer music designer, sound designer and software developer. Born in Winterthur, he is graduated in Flute and Electronic Music and teaches in the pedagogy department at IRCAM in Paris and works as computer music designer at CIMM Venice. Specialised in interactive and multimedia arts, his work passes also through an intense activity of music oriented technology design, in this field he has developed many algorithms which ranges from sound spatialisation and space virtualisation to sound masking and to generative music. Co-founder and CTO of MUSICO, formerly co-founded MusicFit and MUSST, has worked for Architettura Sonora, and as researcher for the Basel university, the MARTLab research center in Florence, the HEM Geneva and the HEMU in Lausanne. He has been professor in Electroacoustic at the Conservatoires of Florence and Cuneo.


Philippe Esling
Atelier du Forum IRCAM / IRCAM Forum Workshop (orchestration assistée par ordinateur et IA / computer-assisted orchestration and AI)
vidéo / video

Philippe Esling est titulaire d’un master en acoustique, traitement du signal, et informatique reçu en 2009, ainsi que d’un doctorat en recherche et classification multi-objectives de séries temporelles décroché en 2012. Il devient ensuite bio-informaticien en post-doctorat en métagénomique et surveillance environnementale au département génétique et évolution à l’université de Genève courant 2012. Depuis 2013, il est maître de conférences à l’Ircam Paris 6. Dans ce très court laps de temps il a écrit et co-écrit plus d’une quinzaine de publications parues dans des revues spécialisées renommées telles que ACM Computing Surveys, Publications of the National Academy of Sciences, IEEE TSALP et Nucleic Acids Research. Il a également reçu un prix du Jeune Chercheur en 2011 pour son travail sur la recherche audio ainsi que le prix de thèse du conseil général pour son doctorat en recherche multi-objective de séries temporelles en 2013. Investi dans la recherche appliquée il a développé le premier logiciel d’orchestration assistée par ordinateur appelé Orchids commercialisé à l’automne 2014 et déjà utilisé par bon nombre de compositeurs. Il supervise actuellement une équipe de sept doctorants, deux stagiaires et un développeur à temps plein. Il est à la tête de la recherche en séries temporelles à l’Ircam, et dirige le partenariat international France-Canada SSHRC ainsi qu’un groupe international sur l’orchestration.

Philippe Esling received an MSc in Acoustics, Signal Processing and Computer Science in 2009 and a PhD on multiobjective time series matching in 2012. He was a post-doctoral fellow in the department of Genetics and Evolution at the University of Geneva in 2012. He is now an associate professor with tenure at IRCAM, Paris 6 since 2013. In this short time span, he authored and co-authored over 15 peer-reviewed journal papers in prestigious journals such as ACM Computing Surveys, Publications of the National Academy of Science, IEEE TSALP and Nucleic Acids Research. He received a young researcher award for his work in audio querying in 2011 and a PhD award for his work in multiobjective time series data mining in 2013.In applied research, he developed and released the first computer-aided orchestration software called Orchids, commercialized at fall 2014 and already used by a wide community of composer. He directed six Masters interns, a C++ developer for a full year, and is currently directing two PhD students. He is the lead investigator in time series mining at IRCAM, main collaborator in the international France-Canada SSHRC partnership and the supervisor of an international workgroup on orchestration.


José Miguel Fernández and Jean-Louis Giavitto
Atelier du Forum IRCAM / IRCAM Forum Workshop (Antescofo)

description détaillée / detailed description, diaporama et plus d'informations / slides and additional information, vidéo / video
Jean-Louis Giavitto—Concevoir des systèmes cyber-temporels avec Antescofo / Designing cyber-temporal systems with Antescofo
José Miguel Fernández—Score centralisé : AntesCollider et autres applications artistiques dans Antescofo / Centralized score: AntesCollider and other artistic applications in Antescofo—vidéo / video

BIOGRAPHIES
José Miguel Fernández a étudié la musique et la composition à l'Université du Chili et au LIPM (Laboratoire de recherche et de production musicale) à Buenos Aires, Argentine. Il a ensuite étudié la composition au Conservatoire National Supérieur de Musique et de Danse de Lyon et a suivi le Cursus de Composition à l'Ircam. Il compose des œuvres de musiques instrumentales, électroacoustiques et mixtes. Ses œuvres sont créées en Amériques, Europe, Asie et Océanie. Il s'est également produit dans de nombreux festivals internationals. Il a été sélectionné au concours international de musiques électroacoustiques de Bourges en 2000 et a été lauréat des concours internationaux de composition Grame-EOC de Lyon en 2008 et du Giga Hertz Award du ZKM/EXPERIMENTALSTUDIO en Allemagne en 2010. En 2014 il a été sélectionnée par l'Ircam pour suivre le programme de compositeur en Résidence en Recherche Musicale et Artistique sur l'interaction en musiques mixtes et en 2018 pour une résidence en partenariat avec la Société des Arts Technologiques de Montréal sur l'écriture de l’électronique pour un projet audiovisuel. Il est actuellement au sein du programme de doctorat en musique (recherche en composition) à l'Ircam, organisé en collaboration avec Sorbonne Université. Son projet de recherche se concentre en priorité sur l'écriture pour l'électronique et la recherche de nouveaux outils pour la création de musique mixte et électroacoustique. En parallèle de ses activités de compositeurs, il travaille sur divers projets pédagogiques et de création reliant l’informatique musicale.

José Miguel Fernández studied music and composition at the University of Chili and at the Laboratory for Musical Research and Production (LIPM) in Buenos Aires, Argentina. He then studied composition at the Conservatoire National Supérieur de Musique et de Danse de Lyon and followed the Cursus program in composition at IRCAM. He composes instrumental, electroacoustic, and mixed music works. His works have been performed in the Americas, Europe, Asia, and Oceana and he has produced mixed music and electroacoustic concerts in several festivals. José Miguel Fernández won the international electroacoustic music competition in Bourges (2000), the Grame-EOC’s international composition competition in Lyon (2008), and the Giga Hertz Award from the ZKM/EXPERIMENTALSTUDIO in Germany (2010). In 2014, he was chosen by IRCAM for the artistic research residency on interaction in mixed music works and in 2018 for a residency with the Société des Arts Technologiques in Montreal, on writing electronics for an audiovisual project. He is currently in the music doctorat program (research in composition) at IRCAM organized in collaboration with Sorbonne Université and the UPMC. His research project focuses primarily on writing for electronics and research on new tools for the creation of mixed and electroacoustic music. In parallel to his activity as a composer, he works on a range of educational projects and creation in connection with computer music.

Jean-Louis Giavitto—Directeur de recherche au CNRS, mon travail se focalise sur le développement de nouveaux mécanismes de programmation permettant de représenter et gérer des relations temporelles et spatiales. J’ai appliqué ces travaux à la modélisation et la simulation de systèmes biologiques, en particulier dans le domaine de la morphogenèse, à l’université d’Évry du Genopole où j’ai cofondé le laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes). Depuis mon arrivée à l'Ircam (janvier 2011), mon activité s'inscrit dans la représentation et la manipulation d’objets musicaux, tant au niveau de l’analyse musicale et de la composition que de la performance sur scène. En particulier, je m’intéresse à la spécification d’interactions temps réel impliquant des relations temporelles fines lors des performances, dans le contexte du système Antescofo utilisé pour la réalisation des pièces de musiques mixtes à l’Ircam et ailleurs dans le monde. Cette technologie profite aujourd’hui à tous, grâce à la création d’une start-up. J’ai participé avec Arshia Cont à la création de l’équipe-projet Inria MuTAnt au sein de l’équipe Représentations musicales et je suis aussi directeur-adjoint du laboratoire.

Jean-Louis Giavitto—Senior computer scientist at CNRS, my work focuses on the development of new programming paradigm based on temporal and spatial relationships. In my previous life, I applied these researches to the modelling and the simulation of biological systems, especially in the field of morphogenesis, at the University of Evry and at Genopole, where I co-founded the IBISC laboratory (Informatics, Integrative Biology and Complex Systems). Since my arrival at IRCAM (January 2011), my work has focused on the representation and manipulation of musical objects, for musical analysis, composition and performance on stage. I am especially interested in the specification of real-time interactions involving fine temporal relationships during performances, in the context of the Antescofo system used for the production of mixed music pieces at IRCAM and elsewhere in the world. This technology benefits everyone today, thanks to the creation of a spinoff. I participated with Arshia Cont in the creation of the INRIA MuTAnt project-team within the RepMus team and I am also deputy director of the joint research lab Ircam-CNRS-Sorbonne University.




COMPOSITEURS INVITÉS / GUEST COMPOSERS

Sasha Blondeau

Sasha J. Blondeau (1986) est compositeur de musique contemporaine mixte, instrumentale et électroacoustique. Il est docteur en composition musicale du programme Ircam-Sorbonne Université-CNRS. Il compose également des pièces pour le théâtre et s'intéresse à l'interaction entre écriture instrumentale et écriture "électroacoustique" dans un même espace d'expressivité. Sasha J. Blondeau a commencé par des études de piano et de saxophone (Gap) puis d'analyse, d'écriture et de composition au CRR de Lyon. Il entre en 2007 au CNSMD de Lyon dans les classes de composition de Denis Lorrain et François Roux. Il obtient son doctorat de composition à l'Ircam en 2017, dans l'équipe Représentations Musicales (directeurs de recherche : Jean-Louis Giavitto (CNRS) et Dominique Pradelle (Paris Sorbonne, Philosophie)) et travaille notamment sur le langage Antescofo et les nouvelles possibilités d'écriture de l'électronique qu'il implique entre 2013 et 2017. Il est résident à la Cité Internationale des Arts de Paris de juillet 2013 à juin 2015, puis de 2019 à 2020. En 2014, il participe à l'Académie Manifeste de l'Ircam ainsi que le Summer Composition Institute de Harvard aux Etats-Unis. Il est lauréat du prix de la Fondation Francis et Mica Salabert 2012 et du prix Sacem "Claude Arrieu" 2018.

Sasha J. Blondeau (1986) is a French composer of contemporary mixed, instrumental and electroacoustic music. He has a PhD in musical composition in the Ircam-Sorbonne Université-CNRS program. He also composes pieces for theatre and is interested in the interaction between instrumental writing and "electroacoustic" writing in the same space of expressivity. Sasha J. Blondeau first studied piano and saxophone (Gap) and then studied analysis, writing and composition at the Lyon CRR. In 2007, he joined the CNSMD de Lyon in the composition classes of Denis Lorrain and François Roux. He obtained his PhD in composition at Ircam in 2017 and worked in the Musical Representations team (directors of research: Jean-Louis Giavitto (CNRS) and Dominique Pradelle (Paris Sorbonne, Philosophy) and worked on the Antescofo language and the new possibilities of writing electronics that it implies, from 2013 to 2017. He is a resident of the Cité Internationale des Arts de Paris from July 2013 to June 2015. In 2014, he attended the Ircam Manifeste Academy and the Summer Composition Institute at Harvard in the United States. He is the laureate of the Francis and Mica Salabert Foundation Prize 2012 and the Sacem "Claude Arrieu" Prize 2018.


Marilou Buron

Née et habitant actuellement à Montréal, Marilou Buron a commencé à jouer le piano à l’âge de cinq ans et, dès l’âge de sept ans, elle composait. La musique a toujours été une passion et est vite devenue une grande partie de sa vie. La composition musicale représente pour elle un langage universel permettant d’exprimer librement ses émotions. Marilou a étudié le piano jazz et la composition au Cégep Saint-Laurent. Elle a complété son baccalauréat en composition à l’Université McGill et poursuit actuellement sa maîtrise. Avec sa formation à McGill, elle explore la musique classique et contemporaine, ce qui crée une fusion de styles très intéressante dans ses compositions. Ses pièces se démarquent aussi par la présence de riches progressions harmoniques. Marilou a également sa propre formation musicale, le «Marilou Buron sextet», qui joue ses compositions de style jazz, pop et funk.

Born and currently living in Montreal, Marilou Buron began playing the piano at the age of five and, at the age of seven, she was already composing. Music has always been a passion and has quickly become a big part of her life. Musical composition represents for her a universal language which allows her to freely express her emotions. Buron studied jazz piano and composition at Cégep Saint-Laurent. She completed her bachelor’s degree in composition at McGill University and is presently pursuing her Master’s. With her training at McGill, she explores both classical and contemporary music, creating an interesting fusion of styles in her compositions, which are notable for their rich harmonic progressions. Buron also has her own musical formation, “Marilou Buron sextet”, which plays her jazz, pop and funk-style compositions.


Zosha Di Castri
Tachitipo : Composing Theatrical Flexibility Into Mixed Music

Tachitipo : Composer de la flexibilité théâtrale en musique mixte
vidéo / video

Cet exposé se concentre sur la manière dont la flexibilité théâtrale peut être intégrée dans la musique mixte, en utilisant une variété d'approches de composition et de synchronisation. En regardant ma pièce Tachitipo, pour deux pianistes, deux percussionnistes et l'électronique, j'examine le contexte conceptuel de l'œuvre et discute des nombreuses solutions hybrides que j'ai conçues pour permettre à la fois la liberté et la structure pour les interprètes et pour leurs mouvements scéniques.

This talk focuses on how theatrical flexibility can be built into mixed music, using a variety of compositional and synchronization approaches. Looking at my piece Tachitipo, for two pianists, two percussionists, and electronics, I examine the conceptual context for the work, and discuss the many hybrid solutions I devised to allow both freedom and structure for the performers and their stage movements.

Zosha Di Castri est une compositrice-pianiste canadienne vivant à New York. Son travail (qui a été joué au Canada, aux États-Unis, en Amérique du Sud, en Asie et en Europe) dépasse le cadre de la musique de concert et comprend des projets d'électronique, d'art sonore et des collaborations avec vidéo et danse. Elle a travaillé pour des ensembles tels que le BBC Symphony, le San Francisco Symphony, l'Orchestre symphonique de Montréal, l'Orchestre du Centre national des Arts, le L.A. Philharmonic, le Chicago Symphony Orchestra, le New York Philharmonic, ICE, Wet Ink, Ekmeles, JACK Quartet, Yarn/Wire, le NEM et le Talea Ensemble, entre autres. Zosha est actuellement professeure assistante de Francis Goelet à l'université de Columbia.

Zosha Di Castri is a Canadian composer/pianist living in New York. Her work (which has been performed in Canada, the US, South America, Asia, and Europe) extends beyond purely concert music including projects with electronics, sound arts, and collaborations with video and dance. She has worked with such ensembles as the BBC Symphony, San Francisco Symphony, Montreal Symphony Orchestra, the National Arts Centre Orchestra, the L.A. Philharmonic, the Chicago Symphony Orchestra, the New York Philharmonic, ICE, Wet Ink, Ekmeles, JACK Quartet, Yarn/Wire, the NEM, and Talea Ensemble among others. Zosha is currently the Francis Goelet Assistant Professor of Music at Columbia University.


Jean-Luc Hervé
"Modèles naturels dans l'écriture de Germination"
vidéo / video

Né en 1960, il fait ses études au Conservatoire Supérieur de Musique de Paris avec Gérard Grisey. Il y obtient un premier prix de composition. Sa thèse de doctorat d’esthétique ainsi qu’une recherche menée à l’IRCAM seront l’occasion d’une réflexion théorique sur son travail de compositeur, sa résidence à la Villa Kujoyama de Kyoto un tournant décisif dans son œuvre. Sa pièce pour orchestre Ciels a obtenu le prix Goffredo Petrassi en 1997. En 2003 il est invité en résidence à Berlin par le DAAD. Ses deux disques monographiques ont reçu le coup de cœur de l'académie Charles Cros. Il fonde en 2004 avec Thierry Blondeau et Oliver Schneller l’initiative Biotop(e). Ses œuvres sont jouées par des ensembles tels que l’Ensemble Intercontemporain, Court-Circuit, Contrechamps, Musik Fabrik, KNM Berlin, Divertimento, Orchestre Philharmonique de Radio-France, Orchestra della Toscana, Berliner Sinfonie-Orchester. Une partie de son travail actuel consiste en des œuvres de concert-installation conçues pour des sites singuliers. Il est actuellement professeur de composition au conservatoire à rayonnement régional de Boulogne-Billancourt et est édité aux éditions Suvini-Zerboni Milan.

Jean-Luc Hervé was born in 1960. He studied composition at the conservatoire de Paris with Gérard Grisey, where he received a Premier Prix in composition. In 1997 he received the "Goffredo Petrassi" prize for his composition Ciels for orchestra. He was composer-in-research at IRCAM and received a fellowship from the DAAD in Berlin (2003). The profound effect of a residence at Villa Kujoyama in Kyoto, along with a doctoral thesis in aesthetics and subsequent research at IRCAM, have helped to shape Hervé's compositional outlook. He founded the group Biotop(e) with Thierry Blondeau and Oliver Schneller in 2004. His works have been performed by ensembles such as Orchestre National de France, Orchestre Philharmonique de Radio-France, Orchestra Sinfonica dell'Emilia-Romagna "Arturo Toscanini", Instant Donné, Court-Circuit, Ensemble Intercontemporain, 2E2M, Contrechamps, Berliner Symphonie Orchester, KNM Berlin, Musik Fabrik, Orchestra della Toscana. He is currently a teacher of composition at the Conservatoire de Boulogne-Billancourt.


Philippe Leroux
L’enseignement de la musique mixte: nouveaux outils - nouveaux concepts
vidéo / video

Dans cette présentation, j'explique ma conception de l’enseignement de la musique mixte, centrée sur l’interaction entre l’utilisation des nouvelles technologies et l’écriture instrumentale ou vocale. La composition mixte devient alors cet échange permettant de se positionner de façon nouvelle par rapport au sonore, de développer de nouveaux concepts compositionnels ou d’en revisiter certains.

In this presentation, I explain my approach to teaching mixed music, centered on the interaction between the use of new technologies and writing for instruments or voice. Mixed music composition thus becomes a place of exchange, allowing the composer to find a new position in relation to sound, to develop new compositional concepts, or to revisit old ones.

BIOGRAPHY
Philippe Leroux est un compositeur français né en 1959. En 1978, il entre au Conservatoire National Supérieur de Musique de Paris dans les classes d’Ivo Malec, Claude Ballif, Pierre Schäeffer et Guy Reibel où il obtient trois premiers prix. Durant cette période, il étudie également avec Olivier Messiaen, Franco Donatoni, Betsy Jolas, Jean-Claude Eloy et Iannis Xénakis. En 1993, il est nommé pensionnaire à la Villa Médicis (prix de Rome) où il séjourne jusqu’en octobre 1995. La musique de Philippe Leroux, toujours très vivante et souvent pleine de surprises, est marquée par un usage original de gestes sonores frappants qui s’organisent en un riche réseau relationnel. Il est l’auteur de plus de quatre-vingts œuvres symphoniques, vocales, avec dispositifs électroniques, musique de chambre et acousmatiques. Ses œuvres sont jouées et diffusées dans de nombreux pays: Festival de Donaueschingen, Festival Présences de Radio-France, Festival Agora, (…). Il a reçu de nombreux prix et en 2015, il est nommé membre de la Société Royale du Canada, l’Académie des beaux-arts de l’Institut de France lui attribue le Prix de composition musicale de la Fondation Simone et Cino Del Duca, et son disque Quid sit Musicus reçoit le Grand Prix du Disque 2015 décerné par l’Académie Charles Cros. Il a publié plusieurs articles sur la musique contemporaine et donné des conférences et cours de composition dans des lieux tels que l’Université de Berkeley Californie, Harvard, etc. De 2001 à 2006 il a enseigné la composition à l’IRCAM dans le cadre du cursus d’informatique musicale et en 2005/2006 à l’université McGill de Montréal (Canada) dans le cadre de la Fondation Langlois. De 2007 à 2009, il a été en résidence à l’Arsenal de Metz et à l’Orchestre National de Lorraine, puis de 2009 à 2011, professeur invité à l’Université de Montréal (UdeM). Depuis septembre 2011 il est professeur agrégé de composition à la Schulich School of Music à l’université McGill, où il dirige également le Digital Composition Studio. Il est actuellement en résidence à l’ensemble MEITAR à Tel-Aviv. Sa discographie comporte une trentaine de Cds dont cinq monographies.

Philippe Leroux is a French composer born in 1959. In 1978, he entered the Conservatoire National Supérieur de Musique de Paris in the classes of Ivo Malec, Claude Ballif, Pierre Schäeffer and Guy Reibel where he obtained three first prizes. During this period, he also studied with Olivier Messiaen, Franco Donatoni, Betsy Jolas, Jean-Claude Eloy, and Iannis Xénakis. In 1993, he was named resident at the Villa Medici (Prix de Rome) where he stayed until October 1995. Philippe Leroux's music, always very lively and often full of surprises, is marked by an original use of striking sound gestures that organize themselves into a rich network of relationships. He is the author of more than eighty works: symphonic, vocal, works with electronics, chamber music and acousmatics. His works are performed and distributed in many events around the world including Donaueschingen Festival, Festival Présences de Radio-France, and the Agora Festival. He has received numerous awards and in 2015 he was named a member of the Royal Society of Canada, the Academy of Fine Arts of the Institut de France awarded him the Simone and Cino Del Duca Foundation Music Composition Prize, and his CD Quid sit Musicus received the Grand Prix du Disque 2015 awarded by the Académie Charles Cros. He has published several articles on contemporary music and has given lectures and composition courses in places such as the University of California at Berkeley, Harvard, etc. From 2001 to 2006 he taught composition at IRCAM as part of the computer music curriculum and in 2005/2006 at McGill University in Montreal (Canada) as part of the Langlois Foundation. From 2007 to 2009, he was in residence at the Arsenal de Metz and the Orchestre National de Lorraine, and from 2009 to 2011, he was a guest professor at the Université de Montréal (UdeM). Since September 2011 he is Associate Professor of Composition at the Schulich School of Music at McGill University, where he also directs the Digital Composition Studio. He is currently in residence with the MEITAR ensemble in Tel Aviv. His discography includes about thirty CDs, including five solo recordings.


James O’Callaghan
Alone and unalone: conceptual concerns in simultaneous headphone and speaker diffusion
Alone and unalone : préoccupations conceptuelles dans la diffusion simultanée des écouteurs et des haut-parleurs
vidéo / video

Two recent related works of mine, Alone and unalone for sextet and electronics, and With and without walls (acousmatic), employ simultaneous loudspeaker and in-ear diffusion with headphones supplied for the audience. The works examine the relationship between individual and collective experience. When we listen to music together, as in a concert, we share a common reality, but we simultaneously have individual, unsharable experiences in our own heads. A confrontation of the philosophical problem of other minds, the affect of the pieces endeavour to teeter between solipsism and the kind of empathy-building that occurs through art.
This talk is designed to accompany the performance of Alone and unalone by Ensemble Paramirabo on April 3 2020 as part of the symposium. In it, I will discuss the technical configuration of the headphone diffusion system I have designed, as well as compositional strategies for the combination and movement of sound between in-ear and loudspeaker spatialization. The system provides unique immersive possibilities in spatial imagery: I will illustrate several of these possibilities with examples from the work, and discuss the compositional process, as well as the conceptual and artistic motivations behind these strategies.

Deux de mes œuvres récentes, «Alone and unalone» pour sextuor et électronique, et «With and without walls» (acousmatique), utilistent une diffusion simultanée aux haut-parleurs et intra-auriculaire avec écouteurs fournis au public. Les œuvres examinent la relation entre les expériences individuelles et collectives. Lorsque nous écoutons la musique ensemble, comme dans un concert, nous partageons une réalité commune, mais simultanément, nous avons des expériences individuelles et impartageables dans nos propres têtes. Affrontement du «problème des autres esprits» en philosophie, l’affect des pièces cherche à osciller entre le solipsisme et le genre de construction de l’empathie qui se produit par l’art.
Cette conférence est conçue pour accompagner la performance de «Alone and unalone» par Ensemble Paramirabo le 3 avril 2020 dans le cadre du symposium. J'y discutera la configuration technique du système de diffusion aux écouteurs que j'ai conçu, ainsi que les stratégies de composition pour la combinaison et le mouvement du son entre la spatialisation intra-auriculaire et celle des haut-parleurs. Le système offre des possibilités immersives uniques de l’imagerie spatiale: je vais illustrer quelques possibilités avec des exemples tirés de l’œuvre et discuter le processus de composition, ainsi que des motivations conceptuelles et artistiques qui sous-tendent ces stratégies.

BIOGRAPHY
James O’Callaghan is a composer and sound artist based in Montréal praised for his “mastery of materials and musical form” (Electromania, Radio France). His music has been described as “very personal… with its own colour anchored in the unpredictable.” (Goethe-Institut) His work intersects acoustic and electroacoustic media, employing field recordings, amplified found objects, computer-assisted transcription of environmental sounds, and unique performance conditions.
His music has been the recipient of over thirty prizes and nominations, including the ISCM Young Composer Award (2017), the Salvatore Martirano Award (2016), the Robert Fleming Prize (2015), the Jan V. Matejcek Award in New Classical Music (2018), the Jeu de Temps / Times Play First Prize, and the SOCAN Foundation John Weinzweig Grand Prize (2014). Significant nominations include those for the Gaudeamus Award (2016), Prix Métamorphoses (2018), and a JUNO Award for classical composition of the year (2014).
 Active as an arts organiser, he co-founded and co-directed the Montréal Contemporary Music Lab.
Originally from Vancouver, he received a Master of Music degree in composition from McGill University in 2014, studying with Philippe Leroux. He received a Bachelor of Fine Arts honours degree from Simon Fraser University in 2011, studying with Barry Truax,

James O'Callaghan est un compositeur et artiste sonore basé à Montréal, acclamé pour sa «grande maîtrise des matériaux et de la forme musicale» (Électromania, Radio France). Sa musique a été décrite comme «bien personnelle, qui possède sa propre couleur ancrée dans l’imprévisible». (Goethe-Institut) Son travail, qui appartient également aux mondes acoustiques et électroacoustiques, tire souvent son matériel sonore d’objets trouvés amplifiés ainsi que des sons de l’environnement naturel et urbain.
Sa musique a reçu plus de trente prix et nominations, y compris le SICM Young Composer Award (2017), le prix Salvatore Martirano (2016), le prix Robert Fleming (2015) le prix Jan V. Matejcek (2018), le premier prix au concours Jeu de temps / Times Play et le Grand Prix John-Weinzweig du Concours des jeunes compositeurs de la Fondation SOCAN (2014). Sa musique a aussi été en nomination au Gaudeamus Award (2016) et au Prix Juno dans la catégorie «Composition classique de l’année» (2014).

Il est titulaire d’une maîtrise en musique (2014) de l’Université McGill, sous la direction de Philippe Leroux. Il a reçu son baccalauréat en beaux-arts de l'Université Simon Fraser, où il a étudié avec Barry Truax.


Georgia Spiropoulos
Composing for the harp - Concepts, materials, transformations
Composer pour la harpe - Concepts, materiaux, transformations
vidéo / video

In this lecture on “Roll…n’Roll…n’Roll” for harp and live electronics, I will discuss the concept, the compositional process and the notion of “instability” in this process. I will present the use of computing tools (OpenMusic, Max/Msp, Antescofo) for the composition of parts of the work and for the creation of new musical material during the live concert.

Dans cette conférence sur «Roll… n'Roll… n'Roll» pour harpe et électronique en temps réel, je discuterai du concept, du processus de composition et de la notion d'«instabilité» dans ce processus. Je présenterai l'utilisation des outils informatiques (OpenMusic, Max/Msp, Antescofo) pour la composition de parties de l'œuvre et pour la création de nouveau matériel musical lors du concert live.

BIOGRAPHY
The work of Georgia Spiropoulos includes instrumental, vocal, electroacoustic and mixed compositions, multimedia instrumental or chamber operas and installations. Her musical language is all-inclusive embracing the entire sound world through unconventional (and conventional) playing and singing techniques, electronic sound, recorded sound but also found music. Her research on new sonorities and compositional techniques has its roots in 20th century music, in oral traditions but also in avant-rock, free improvisation, experimental turntablism, performance art or interdisciplinary artists.
She studied composition and electroacoustic music with Philippe Leroux, form analysis with Michael Lévinas, composition & computer music at IRCAM (with Jonathan Harvey, Tristan Murail, Brian Ferneyhough, Philippe Hurel, Marco Stroppa) and “Arts and Languages” at the School for Advanced Studies in the Social Sciences (EHESS).
She taught music composition and electroacoustic music at McGill University in Montreal, Canada (2017-18) where she held the Schulich Distinguished Visiting Chair in Music and was the active director of the Digital Composition Studios (DCS).
She has been a Civitella Ranieri Fellow, the winner of the “Villa Médicis Hors-les-Murs Award” for NYC, and she was made Knight of the Order of Arts and Letters of the French Republic.
She has many received commissions (French Ministry of Culture, Baden-Wurttemberg Ministry of Culture, IRCAM-Centre Pompidou, French Radio, Haus der Kulturen der Welt Berlin, Marseille Capital of Europe 2013, Sacem, Muse En Circuit, Onassis Foundation ) and has been performed in Europe, USA and Asia by numerous ensembles (Ensemble Intercontemporain, L'Itinéraire, 2E2M, Ars Nova, Sillages, San Francisco Contemporary Music Players, McGill Contemporary Music Ensemble, Nikel, Aventure, Zafraan, Smashensemble, dissonArt, Accentus, Cris de Paris).

Georgia Spiropoulos compose des œuvres instrumentales, vocales, mixtes et électroacoustiques. Elle crée également des œuvres multimédia, opéras de chambre et installations audiovisuelles. Son langage inclut l’ensemble du monde sonore : techniques instrumentales et vocales non conventionnelles, des sons électroniques et concrets, ou encore de la musique « trouvée ». Ses recherches sur le son et les techniques de composition trouvent leurs racines dans la musique du XXe siècle, dans les musiques de tradition orale, mais également dans le rock d’avant-garde, la free improvisation, le turntablism expérimental ou encore chez les artistes interdisciplinaires.
Elle a etudié la composition instrumentale et électro-acoustique avec Philippe Leroux, l'analyse avec Michaël Lévinas et l’informatique musicale au Cursus de l’IRCAM ou elle travaille avec Jonathan Harvey, Tristan Murail, Brian Ferneyhough, Philippe Hurel, Marco Stroppa et Ivan Fedele. Elle a obtenu un master à l'École des Hautes Etudes des Sciences Sociales (EHESS).
Elle a enseigné la composition et la musique électroacoustique à l'Université McGill de Montréal où elle a occupé la Schulich Distinguished Visiting Chair in Music (2017-18). Elle a été également directrice active du Digital Composition Studios (DCS).
Elle a reçu le prix Civitella Ranieri et le prix « Villa Médicis Hors les Murs » pour New York. Elle a été nommée Chevalier de l'Ordre des Arts et des Lettres de la République Française.
Georgia Spiropoulos a reçu plusieures commandes (Ministère Français de la Culture, du Ministère de la Culture de Baden Württemberg, de l'IRCAM-Centre Pompidou, Radio France, « Marseille Capitale Européenne de la Culture 2013 », SACEM, Haus der Kulturen der Welt de Berlin, Fondation Onassis, Muse En Circuit) et ses oeuvres ont été joué en Europe, aux États-Unis et en Asie par de nombreux ensembles (Ensemble Intercontemporain, L'Itinéraire, 2E2M, Ars Nova, Sillages, San Francisco Contemporary Music Players, McGill Contemporary Music Ensemble, Nikel, Aventure, Zafraan, Smashensemble, dissonArt, Accentus, Cris de Paris).


...du Studio de composition numérique de McGill / from the McGill Digital Composition Studio...

Omer Barash
Mit Groys Khesek for cello and electronics
vidéo / video

Mit Groys Khesek (“with great passion/desire” in Yiddish) initially stemmed from the idea of children learning the alphabet. Hence the piece’s title, which is taken from a Yiddish song depicting a rabbi teaching children the Hebrew letters. Through repetition, mimicry, and gamification, the cello and electronics engage in an exchange of different materials that are gradually crystalized and distilled along the piece—as if engaging in a mutual process of learning, memorising, and assimilating them.

BIOGRAPHY
Omer Barash is a composer currently residing in Montreal. His main compositional interests include the experience of gesture and movement in music, from the listeners’ perspective. His music was awarded such prizes as the Svoboda Memorial Prize (McGill University, 2020), the Klohn Award for emerging composers (Israeli Composers League, 2019), and merit grants from the America-Israel Cultural Foundation (2018-2021), among others. Barash’s music has been commissioned and performed by ensembles such as Paramirabo (Canada), Reconsil (Austria), Meitar (Israel), Duo Ardorè (UK/Italy), Trio Arbós (Spain), and the Savaria Symphony Orchestra (Hungary). Collaborations with conductors such as Pascal Gallois, Christian Lindberg, and Guy Braunstein have taken place as well. Omer Barash is currently pursuing his master’s degree at McGill University with Philippe Leroux. Before coming to McGill, he was Composer in Residence of the Tedarim Project, a new-music mentoring programme led by Meitar Ensemble at the Jerusalem Academy of Music and Dance.


Joy Blanchard
Prelude 3 for violin and electronics
vidéo / video

You tossed a blanket from the bed,
You lay upon your back, and waited;
You dozed, and watched the night revealing
The thousand sordid images
Of which your soul was constituted;
They flickered against the ceiling.
And when all the world came back
And the light crept up between the shutters
And you heard the sparrows in the gutters,
You had such a vision of the street
As the street hardly understands;
Sitting along the bed’s edge, where
You curled the papers from your hair,
Or clasped the yellow soles of feet
In the palms of both soiled hands.
Preludes, III. T.S. Eliot, 1917

Prelude 3 interprets the poem above sonically and metaphorically. Sounds are derived from phonetic qualities of the words through the extraction and reinterpretation of vowels and consonants. Consonants are represented through a system of percussive sounds on the violin, and formant frequencies of vowels provide pitch material for the final section of the piece. Breath as expressed literally and through the violin deepens the connection between voice and instrument, and pitch and rhythm transcriptions of the poem as read aloud link the violin’s material to the electronics. The piece contemplates the theme of inside vs. out, in terms of perception vs. reality, physical vs. ethereal, perspective, and conception of self. Sincere thanks to Jana Kaminsky for her dedicated and expressive playing, Quentin Lauvray and Richard McKenzie for recording the performance, and Sean Ferguson, Philippe Leroux, and Brian Cherney for their guidance in the composition process.

BIOGRAPHY
Joy Blanchard is a graduate of McGill University in Montreal, where she studied composition, music theory, and music education at the Schulich School of Music. She has studied composition with Brian Cherney and Brett Abigaña and piano with Tom Davidson and Eleanor Perrone. In addition to Prelude 3, her recent projects include a percussion quartet and woodwind quintet written as part of the Composer in Residence program at Schulich, as well as a work for voice and piano commissioned by the Parea Song Project in Philadelphia. Other works completed in recent years include a piece composed for Trio Émerillon of Montreal and pieces for trumpet and electronics, harp and electronics, and spatialized tape, all performed at McGill. She was commissioned to compose a choral piece for Boston University Academy’s 25th Anniversary Gala, where she conducted its premiere in May 2018. Joy currently lives in Boston, Massachusetts, where she teaches piano and enjoys hiking, yoga, and DIY woodworking projects.


Xue Han
voulez-vous une berceuse?
vidéo / video

voulez-vous une berceuse? stems from the well-known French folk songs “Au Clair de la Lune” and “À la claire fontaine”. The music depicts a scene of a negligent parent lulling his baby to sleep. The music starts with the performer playfully and conceitedly warming up his voice; at the end of the piece, he sends himself into a deep dream. At some points in the amusing yet confusing singing, he even falls into a state of narcissism and fails to remember his “mission” in singing the lullabies.
The piece was originally conceived as a pure vocal solo without any augmented timbral extension. Thus the involvement of electronic sound materials was primarily aimed at blending and integrating into the singer’s vocalization; its function of implying multi-spaced theatrical images were considered secondly. The main elements presented in this piece come from the singer’s performance, environmental sounds, and noises produced by certain objects from our everyday life.
This folk-tune-based piece was written for the French singer Alexandre Jamar.

BIOGRAPHY
Xue Han is a Chinese composer whose compositional interest concerns the interactions between the influence of human nature on performers’ actions and their reflections on musical manifestation. Many of her works also examine the transformation of features of human language on acoustic instrumental settings. By merging oriental and western musical vocabularies and aesthetics, she expected to depict and interpret the sound phenomena that either derive from nature or stem from her native culture.
Xue Han started her music training on piano and dance performance. She completed her undergraduate and postgraduate studies in composition at Central Conservatory of Music (CN) and Bard College (US). She is currently a doctorate candidate at McGill University (CA), under the supervision of Philippe Leroux. Some of the musicians and performing organizations she has worked with include the China Youth Symphony Orchestra (CN), Orchestre Symphonique de Montréal (CA), Radius Ensemble (US), Quasar Saxophone Quartet (CA), Meitar Ensemble (IL), Exaudi Vocal Ensemble (GB), Danza Orgánica (US), and soloists from Ensemble Intercontemporain (FR), Ensemble l’itinéraire (FR), Ensemble Suono Giallo (IT), Ensemble New Babylon (DE) and Ensemble Schallfeld (AT).


Jonas Regnier
Compulsion-Spirale
vidéo / video

Pensées incontrôlables.
Une Idée obsessive nous suit,
     donne naissance à une voix,
          impossible à faire taire ;

Une Ligne, infinie-
Répétitive, sinueuse, une inertie.

Une Boucle absurde, tordue
Vagabondant-Pourchassant-Tourmentant
Elle voyage avec nous où que l’on aille
Jusqu’à ce qu’elle se fonde dans notre vie
Devenant sacro-saint

Compulsion-Spirale traite du sujet des obsessions et de la façon dont elles nous influencent dans nos vies quotidiennes : que ce soit les médias sociaux et de la technologie ou bien des formes plus sérieuses de compulsion comme la paranoïa ou l’hypocondrie. Chaque section de la pièce se concentre sur une répétition de nature spécifique : rythmique, mélodique, intervallique, harmonique, gestuelle, texturée, etc.

Uncontrollable thoughts.
An obsessive idea follows us,
     gives rise to a voice,
          impossible to shut off;

A line, endless-
Repetitious, circuitous, a stasis

An absurd, twisted loop
Wandering-Following-Stalking
It travels with us wherever we go
Until it fuses with our life
Becoming sacrosanct.

Compulsion-Spirale deals with the subject of obsession, and how it influences us in our daily lives : from social media and technology to more serious forms of compulsion such as paranoïa or hypochondria. Each section of the piece focuses on a specific kind of musical repetition : rhythmic, melodic, intervallic, harmonic, gestural, textural, etc.

BIOGRAPHY
Compositeur français basé à Montréal, Jonas Regnier commence l’apprentissage du piano à l’âge de 13 ans et entre au Conservatoire à Rayonnement Régional de Toulouse (France) en 2013 dans la classe d’Orgue de Stéphane Bois, après avoir obtenu un baccalauréat scientifique. Soucieux d’étendre ses connaissances musicales théoriques, il entre l’année suivante à l’université et s’inscrit dans les classes d’écriture, d’analyse et de contrepoint du Conservatoire. Passionné par les processus de création et de recherche musicale, c’est en entrant dans les classes de Composition de Bertrand Dubedout et de Guy-Olivier Ferla en 2015 qu’il découvre la musique du XXIème siècle et décide de se spécialiser dans la composition contemporaine. Les enseignements techniques et artistiques de ces deux classes lui permettent d’aborder et de développer une démarche associant la création musicale aux disciplines scientifiques. Après avoir obtenu une Licence de Musicologie à l’Université Paris-Sorbonne, il entre en Master de Composition à l’Université McGill de Montréal en 2018 pour étudier auprès de Philippe Leroux et Jean Lesage. Il intègre les groupes de recherche CIRMMT et ACTOR Project en 2019, ce qui lui permet de travailler sur des projets interdisciplinaires. Il travaille actuellement sur deux projets de recherche sur la perception du timbre, en collaboration avec des étudiants en Science.
Jonas Regnier explore avec autant d’intérêt la composition instrumentale et vocale et la composition électroacoustique. Il a déjà composé de nombreuses pièces électroacoustiques (sur support) et mixtes (pour instruments avec électronique en temps réel) qui ont été jouées dans des festivals de musique contemporaine en France, Belgique, Canada, Thaïlande et aux Etats-Unis. Mais son portfolio de compositions comporte aussi des pièces pour instruments solo, musique de chambre, ensembles de 15 musiciens et orchestres.

Born in France in 1995, Jonas Regnier started learning the piano at 13 and was admitted in Toulouse Conservatory (France) in 2013 in the organ class of Stéphane Bois, after obtaining his scientific high school diploma. Passionate about musical research and composition processes, he decided to specialize into contemporary composition after joining the composition classes of Bertrand Dubedout and Guy-Olivier Ferla, with whom he studied for three years. The technical and creative approach learned in these courses inspired him to develop methods capable of bridging scientific and artistic disciplines within his compositions. His sources of inspiration may come from Physics, Psychology, Literature, Biology, etc. He graduated and obtained his Musicology Bachelor degree at the Sorbonne University (Paris), and started a Master of Music in Composition at McGill University (Montreal) in 2018, under the supervision of Philippe Leroux and Jean Lesage. He integrated both the CIRMMT and the ACTOR Project research groups in 2019, which allowed him to work on interdisciplinary projects. He is currently working on two research projects focusing on the topic of timbre perception, in collaboration with other students coming from a Scientific background.
Jonas Regnier is exploring both Instrumental and Electroacoustic composition with equal interest. He has already composed numerous Electroacoustic (fixed media) and Live Electronics pieces that have been performed in Contemporary Festivals in France, Belgium, Canada, Thailand and the US. But his portfolio also includes compositions for solo instruments, chamber music, 15 instruments ensemble and orchestra




CONFÉRENCIERS / SPEAKERS

Aurélien Antoine, Philippe Depalle, and Stephen McAdams (McGill University)
Harnessing the Computational Modelling of the Perception of Orchestral Effects for Computer-Aided Orchestration Tools
Exploiter la modélisation informatique de la perception des effets orchestraux pour les outils d’orchestration assistée par ordinateur

vidéo / video

Recent developments in the field of computer-aided orchestration have provided interesting approaches for addressing some of the many orchestration challenges, supported by advances in computational capacities and artificial intelligence methods. Nevertheless, harnessing the many sides of this musical art, which involves combining the acoustic properties of a large ensemble of varied instruments, has not yet been achieved. One interesting aspect to investigate is the perceptual effects shaped by the instrument combinations, such as blend, segregation, and orchestral contrasts, to name but three. These effects result from three auditory grouping processes, namely concurrent, sequential, and segmental grouping. Therefore, research in Auditory Scene Analysis (ASA) could be utilised to establish computational models that process symbolic musical score and audio signal information to identify specific orchestral effects. Our work in this area could help to understand and identify the different musical properties and techniques involved in achieving these effects that are appreciated by composers. These developments could benefit systems designed to perform orchestration analysis from machine-readable musical scores. Moreover, grasping the different parameters responsible for the perception of orchestral effects could be incorporated into computer-aided orchestration tools designed to search for the optimal instrument combinations by adding perceptual characteristics to their search methods.

De récentes avancées dans le domaine de l’orchestration assistée par ordinateur ont fourni des approches intéressantes pour relever certains des nombreux défis de l’orchestration, soutenus par les progrès des capacités informatiques et des méthodes d’intelligence artificielle. Néanmoins, la maîtrise des multiples facettes de cet art musical, qui consiste à combiner les propriétés acoustiques d’un grand ensemble d’instruments variés, n’a pas encore été atteinte. Un des aspects à étudier touche les effets perceptuels façonnés par les combinaisons d’instruments, comme le mélange, la ségrégation et les contrastes orchestraux, pour n’en nommer que trois. Ces effets résultent de trois processus de regroupement auditif, à savoir le regroupement simultané, séquentiel et segmentaire. Par conséquent, la recherche en analyse de scène auditive (ASA) pourrait être utilisée pour établir des modèles informatiques qui traitent l’information sur les partitions musicales symboliques et les signaux audio pour identifier des effets orchestraux spécifiques. Notre travail dans ce domaine, pourrait aider à comprendre et à identifier les différentes propriétés techniques musicales impliquées dans la réalisation de ces effets qui sont appréciés par les compositeurs. Ces développements pourraient profiter aux systèmes conçus pour effectuer des analyses d'orchestration à partir de partitions musicales lisibles par machine. De plus, la compréhension des différents paramètres responsables de la perception des effets orchestraux pourrait être incorporée dans des outils d'orchestration assistée par ordinateur conçus pour rechercher les combinaisons d'instruments optimales en ajoutant des caractéristiques perceptuelles à leurs méthodes de recherche.

BIOGRAPHY
Aurélien Antoine is a post-doctoral fellow at McGill University working with Stephen McAdams and Philippe Depalle. His current research focuses on modeling of orchestration effects and techniques from machine-readable symbolic score information and audio signals through data mining and machine learning techniques. This work benefits from the resources available in the Orchard database and aims to expand it. Its outcomes will also contribute to the understanding and use of the different orchestration effects and techniques.

Aurélien Antoine est boursier postdoctoral à l'Université McGill et travaille avec Stephen McAdams et Philippe Depalle. Ses recherches actuelles se concentrent sur la modélisation des effets et des techniques d’orchestration à partir d’informations symboliques de partitions et de signaux audio lisibles par machine, en passant par l’exploration de données et les techniques d’apprentissage machine. Son travail bénéficie des ressources disponible dans la base de données Orchard, et souhaite la développer. Ses résultats contribueront également à la compréhension et à l’utilisation des différents effets et techniques d’orchestration.


Denis Beuret
Ensemble virtuel, un programme qui groove
Ensemble virtuel, a program that grooves
vidéo / video

Ce programme génère des mélodies, la basse, la batterie et les accords appropriés en temps réel et joue le tout en rythme. Il analyse les hauteurs et dynamiques de quatre sources audio (micros ou fichiers), il se cale à la vitesse d’une source sonore et quantife sa production musicale en temps réel, selon des rythmes, ou de la valeur de division choisis. Au niveau orchestration, il est possible de choisir les sons que l’on veut, car le programme analyse de l’audio ou du MIDI et génère du MIDI. Pour cette présentation et la démo, Denis Beuret va jouer du trombone et utiliser un pédalier qui lui permet de contrôler des effets audio en temps réel.

This program generates melodies, bass, drums, and the appropriate chords in real time and plays all in rhythm. It analyses the pitches and dynamics of four audio sources (microphones or sound files), locking in to the speed of the sonic source and quantifying its musical production in real time, according to the rhythms or the chosen metric division. At the orchestrational level, it it possible to choose the sounds that one wants, because analyzes audio or MIDI and generates MIDI. For this presentation and demo, Denis Beuret will play the trombone and use a pedal that allows him to control certain audio effects in real time.

BIOGRAPHY
Denis Beuret est un compositeur, tromboniste, vidéaste, développeur informatique, improvisateur et médiateur culturel suisse. Il a étudié la batterie, le trombone, l’informatique musicale, la direction et l'orchestration, ainsi que la médiation culturelle. Il est spécialisé dans la recherche sonore : techniques de jeu étendu du trombone basse et intégration de l’électronique en concert. Il a mis au point un trombone basse augmenté, muni de divers capteurs qui lui permettent de contrôler des programmes musicaux en fonction de ses mouvements et de son jeu. Il a présenté ses travaux à plusieurs reprises à l'IRCAM, ainsi qu'à ImproTech Paris - New York 2012.

Denis Beuret is a Swiss composer, trombonist, videographer, software developer, improviser, and cultural mediator. He studied drums, trombone, music informatics, conducting, and orchestration as well as cultural mediation. He specializes in sonic research: extended playing techniques for the bass trombone and integration of electronics into the concert hall. He has developed an augmented bass trombone, equipped with various sensors that allow him to control musical programs through his movements and playing. He has presented his works several times at IRCAM, as well as at Improtech Paris-New York 2012.


Monica L. Bolles
Orbits: An exploration in spatial audio and sonification
Orbites : Une exploration dans l'audio spatial et la sonification
vidéo / video

Orbits is a custom designed instrument for spatial music live performance that utilizes data relating to the rotational patterns of Venus and Earth around the Sun. This piece has been interpreted in spatial audio arrays ranging from 8 channels to 140 channels and is performed through the use of an iPad and Mi.Mu gloves. In this presentation, Monica Bolles will provide a short demo of the instrument and discuss her approaches to sonifying data for multichannel speaker arrays, her use of gestural control for live performance, and the challenges and solutions she has developed for touring live spatial music.

Orbits est un instrument conçu sur mesure pour les performances musicales spatiales en direct qui utilise des données relatives aux schémas de rotation de Vénus et de la Terre autour du Soleil. Cette pièce a été interprétée dans des réseaux audio spatiaux allant de 8 canaux à 140 canaux et est réalisée à l'aide d'un iPad et de gants Mi.Mu. Dans cette présentation, Monica Bolles fera une courte démonstration de l'instrument et discutera de ses approches de la sonification des données pour les réseaux de haut-parleurs multicanaux, de son utilisation du contrôle gestuel pour les performances en direct, et des défis et solutions qu'elle a développés pour la musique spatiale en tournée.

BIOGRAPHY
Monica Bolles has been working with spatial audio since 2011 when she first gained access to her local planetarium’s 15.1 channel surround system. Since then she has been continuously building toolsets in Max MSP to be able to create large textured soundscapes that explore space, movement, and interaction. Tapping into her roots in traditional audio engineering she works with composers and live performers to explore methods of translating their work to spatial environments while exploring the role the audio engineer plays as a performer and musician. As an artist, she has been focusing on building custom instruments that explore data sonification and use gestural control to create improvised spatial audio experiences. As a producer, she puts together teams to build large immersive works that bring together live performance, dance, 360-projections, spatial audio and other new technologies.

Monica Bolles travaille avec l'audio spatial depuis 2011, date à laquelle elle a eu accès pour la première fois via son planetarium local au système surround 15.1. Depuis lors, elle n'a cessé de développer des outils dans Max MSP pour pouvoir créer de grands paysages sonores texturés qui explorent l'espace, le mouvement et l'interaction. Puisant ses racines dans l'ingénierie audio traditionnelle, elle travaille avec des compositeurs et des interprètes en direct pour explorer des méthodes permettant de traduire leur travail en environnements spatiaux tout en explorant le rôle que l'ingénieur du son joue en tant qu'interprète et musicien. En tant qu'artiste, elle s'est concentrée sur la construction d'instruments personnalisés qui explorent la sonification des données et utilisent le contrôle gestuel pour créer des expériences audio spatiales improvisées. En tant que productrice, elle réunit des équipes pour construire de grandes œuvres immersives qui réunissent performance en direct, danse, projections à 360 degrés, audio spatial et autres nouvelles technologies.


Linda Bouchard (Concordia University, residency at Matralab)
Live Structures / Structures vivantes
vidéo / video

Live Structures is a research and composition project that explores different ways to interpret data into graphic notation and compositions. The Live Structures project started in October 2017, supported by an Explore and Create Grant from the Canada Council for the Arts received by Bouchard. One of the goals of the Live Structures project is to interpret data from the analysis of complex sounds into a visual musical notation. The tool, developed in collaboration with Joseph Browne of matralab at Concordia University, is called Ocular Scores™. So far, three iterations of the Ocular Scores Tool have been created, each performing multiple functions: a) the ability to draw an image from the analysis of complex sounds that can be used as gestural elements to compose new works or to compare a complex sound against another complex sound, b) the ability to draw full transcriptions of a performance for future interpretation, and c) the ability to draw images in real time and to manipulate those images to create interactive projected scores to be performed live by multiple performers. These various applications and how they can inspire composers and performers will be demonstrated with a live performer (tbd). www.livestructures.com

Live Structures est un projet de recherche et composition, qui explore les différentes manières d’interpréter les données au sein des notations et compositions graphiques. Le projet Live Structures a commencé en Octobre 2017, supporté par une subvention Exploration et Création du Conseil des Arts du Canada, reçue par Bouchard. Un des objectifs du projet Live Structures est d’interpréter les données issues de l’analyse des sons complexes pour en faire une notation musicale visuelle. L’outil, développé en collaboration avec Joseph Browne du Matralab de l’Université de Concordia, est appelé Ocular Scores™. Jusque là, trois itérations de l’Ocular Scores ont été créées, chacune exécutant des fonctions multiples : a) la capacité de dessiner une image à partir de l’analyse de sons complexes qui peuvent petre utilisés comme éléments gestuels pour composer de nouvelles oeuvres ou pour comparer un son complexe à un autre, b) la capacité de faire des transcriptions complètes d’un spectacle en vue d’interprétation future, et c) la capacité de dessiner des images en temps réel, et de manipuler pour créer des partitions interactives projetées, qui seront jouées en direct par plusieurs interprètes. Ces diverses applications et la façon dont elles peuvent inspirer les compositeurs et les interprètes seront démontrées avec un interprète en direct (tbd). www.livestructures.com

BIOGRAPHY
Born in Québec, Linda Bouchard lives in the Bay Area since 1997. Throughout her career she has been an active composer, orchestrator, conductor and teacher. Her works have received awards in the US and in Canada, including a Prix Opus Composer of the Year in Quebec, Fromm Music Foundation Award, Princeton Composition Contest, Davidson Award, SOCAN Composition awards and residencies from the Rockefeller Foundation, Civitella Ranieri, Camargo Foundation and others. Bouchard’s music is recorded on ECM in Germany, CRI in the USA and CBC, Analekta, Marquis Classics, RCI, Centredisks in Canada. Linda was composer-in-residence with the National Arts Center Orchestra (1992-1995). She is the founder of NEXMAP.org, (a non-profit arts and education organization based in San Francisco), and was the acting director from 2005 to. 2015. In 2015, Bouchard was invited as a visiting artist at The Banff Centre, she also received a Fleck Fellowship at the Leighton artist Colony. During the spring 2016, she was a Visiting Associate Professor in the Department of Music at UC Berkeley. Since 2012, Linda has been creating multimedia work while continuing to compose music for the concert hall. Her works Murderous Little World, All Caps No Space and Identity Theft have been performed in North America to critical acclaim. In the fall 2017, Linda received a multiyear grant from the Canada Council for the Arts for her project titled “Live Structures”. Live Structures have been featured in Montreal, Toronto, Vancouver, Calgary, Victoria in Canada, in Berkeley, USA, Melbourne, Australia and Zurich.

Linda Bouchard est née au Québec et vit à San Francisco depuis 1997. Tout au long de sa carrière, elle a été une compositrice, chef d’orchestre, et professeur très active. Son travail a reçu de nombreuses distinctions aux US et au Canada, y compris le Prix Opus Composer of the Year au Quebec, Fromm Music Foundation Award, Princeton Composition Contest, Davidson Award, SOCAN Composition awards and residencies from the Rockefeller Foundation, Civitella Ranieri, Camargo Foundation et d’autres. La musique de Bouchard est enregistrée sur ECM en Allemagne, CRI aux US, et CBC, Analekta, Marquis Classics, RCI, Centredisks au Canada. Linda a été compositrice en résidence au National Arts Center Orchestra (1992-1995). She is the founder of NEXMAP.org (une organisation à but non lucratif d’arts basée à San Francisco), et directrice par intérim de 2005 à 2015. En 2015, Bouchard est artiste invitée au Centre Banff, elle reçoit également une bourse Fleck à la Colonie d’Artistes de Leighton. Au cours du printemps 2016, elle est professeur invitée associée au Département de Musique de Berkeley. Depuis 2012, Linda crée des oeuvres multimédias tout en continuant à composer des oeuvres pour concert. Ses œuvres Murderous Little World, All Caps No Space et Identity Theft ont été présentées en Amérique du Nord et saluées par la critique. À l'automne 2017, Linda a reçu une subvention pluriannuelle du Conseil des Arts du Canada pour son projet intitulé "Live Structures". Live Structures a été présenté à Montréal, Toronto, Vancouver, Vancouver, Calgary, Victoria au Canada, à Berkeley aux États-Unis, Melbourne en Australie et Zurich.


Jeffrey Boyd, Friedemann Sallis, Martin Ritter (University of Calgary)
The hallucinogenic belfry: analyzing the first forty measures of Keith Hamel's Touch for piano and interactive electronics (2012)
Le beffroi hallucinogène : analyse des quarante premières mesures du Touch de Keith Hamel pour piano et électronique interactive (2012)
vidéo / video, diaporama / slides

Computational musicology is emerging out of the necessity of finding methods to deal with music (both art and popular) that escapes conventional Western notation. To better understand this music, we use computational methods to decompose recordings of performances of contemporary music into digital musical objects. In this paper, we examine the first 40 measures of Touch for Piano and Interactive Electronics (Hamel 2012). Hamel uses the spectra of bells as a basis for a score that mimics the timbre of bells, and combines it with the piano's timbre, electronic processing, and spatial rendering with eight speakers surrounding the audience. For musical objects, we elect to use the over 200 bell samples used in the electronic portion of the piece. An exhaustive computer search for occurrences of each bell sample over four recordings of performances by the same pianist (Megumi Masaki) in two venues over 100 directions (sampled with an ambisonic microphone) yields a database of thousands of bell event detections. Our search produced 1) numerous objects (samples) explicitly coded into the electronic 'score' (not a surprise); 2) a surprisingly large number of objects not explicitly coded. The latter group corresponds to pitches in higher registers, labelled "brass bell dry" or "glock" in the electronic score. Inspection of our code, and verification by listening, confirm that these objects are not produced from the bell samples in the electronic source. On the contrary, they are the product of piano pitches carefully harmonized in real time to gradually bring them closer to the bell samples in the course of the forty-measure segment. By disseminating these sounds in the concert space, the composer invites the audience to gradually enter his hallucinogenic belfry, where the musical work takes place.

La musicologie computationnelle émerge de la nécessité de trouver de nouvelles méthodes pour traiter la musique (tant artistique que populaire) qui échappent à la notation occidentale conventionnelle. Pour mieux comprendre cette musique, nous utilisons des méthodes informatiques pour décomposer les enregistrements d'interprétations de musique contemporaine en objets musicaux numériques. Dans cet article, nous examinons les 40 premières mesures de Touch for Piano and Interactive Electronics (Hamel 2012). Hamel utilise le spectre des cloches comme base d'une partition qui imite le timbre des cloches et le combine avec le timbre du piano, le traitement électronique et le rendu spatial avec huit haut-parleurs entourant le public. Pour les objets musicaux, nous choisissons d'utiliser plus de 200 échantillons de cloches utilisés dans la partie électronique de la pièce.
Une recherche informatique exhaustive des occurrences de chaque échantillon de cloche sur quatre enregistrements de prestations du même pianiste (Megumi Masaki) dans deux lieux sur 100 directions (échantillonnés avec un microphone ambisonique) donne une base de données de milliers de détections d'événements de cloche. Notre recherche a produit 1) de nombreux objets (échantillons) explicitement codés dans la " partition " électronique (ce qui n'est pas une surprise) ; 2) un nombre étonnamment élevé d'objets non explicitement codés. Ce dernier groupe correspond aux hauteurs dans les registres supérieurs, appelées "cuivres secs" ou "glock" dans la partition électronique. L'inspection de notre code, et la vérification par écoute, confirment que ces objets ne sont pas produits à partir des échantillons de cloche de la source électronique. Au contraire, ils sont le produit de hauteurs de piano soigneusement harmonisées en temps réel pour les rapprocher progressivement des échantillons de cloches au cours du segment des quarante mesures. En diffusant ces sons dans l'espace de concert, le compositeur invite le public à entrer progressivement dans son beffroi hallucinogène, où se déroule l'œuvre musicale.

BIOGRAPHY
Jeffrey Boyd is a professor of computer science at the University of Calgary. His interests include computational musicology, sonification, interactive art, and video and sensing applied to human movement. Friedemann Sallis is a professor emeritus in the Division of Music at the University of Calgary. Martin Ritter holds a DMA from the University of British Columbia and is a PhD candidate in Computational Media Design at the University of Calgary.

Jeffrey Boyd est professeur d'informatique à l'Université de Calgary. Ses intérêts comprennent la musicologie computationnelle, la sonification, l'art interactif, la vidéo et la détection appliquée au mouvement humain. Friedemann Sallis est professeur émérite à la Division de musique de l'Université de Calgary. Martin Ritter est titulaire d'un DMA de l'Université de la Colombie-Britannique et est candidat au doctorat en conception de médias informatiques à l'Université de Calgary.


Amy Brandon (Dalhousie University)
Composing for AR space: creating interactive spatial scores for the METAVision headset
Composer pour l’espace AR : créer des partitions spatiales interactives pour le casque METAVision

vidéo / video, diaporama / slides

In the last several years, the compositional and performance possibilities within VR and AR environments has grown, with composers such as Paola Prestini and Giovanni Santini, among others, writing works for various VR, AR and 360 technologies. My own compositions from 2017-19 have focused on the particular affordances of the METAVision AR headset, which inhabits the intersection of graphic score, controller and improvisational movement. The primary goal of the works (Hidden Motive, 7 Malaguena Fragments for Augmented Guitar, flesh projektor) is and was the discovery and manipulation by the improvisor (or musician) of the affordances of the AR space, especially its reactivity to hand gestures. The works explore how individual bodies interact within a performative augmented reality environment, in particular how those interactive spaces can meld with the 'real' world objects such as instruments. In this demonstration I will show previous works for the METAVision AR headset as well as demonstrate a currently developing multi-channel work.

Au cours de ces dernières années, les possibilités de composition et performance au sein de l’environnement VR et AR se sont développées, grâce à des compositeurs tels que Paola Prestini et Giovanni Santini, entre autres, et leurs travaux sur la VR, AR et les technologies 360. Mes propres compositions, de 2017 à 2019, se sont focalisées sur les affordances particulières des oreillettes METAVision AR, qui habite l’intersection de la partition graphique, du contrôleur et du mouvement d’improvisation. Le but principal de ces travaux (Hidden Motive, 7 Malaguena Fragments for Augmented Guitar, flesh projektor) est et a été la découverte et la manipulation par l’improvisateur (ou musicien) des moyens de l’espace AR, en particulier sa réactivité aux gestes de la main. Ce projet explore comme les corps dans leurs individualités interagissent dans un environnement de réalité augmentée performative, en particulier comment ces espaces interactifs peuvent se fondre avec les objets du monde " réel " comme les instruments. Dans cette démo, je vous présenterais les précédents travaux pour le casque METAVision AR ainsi qu'un travail multicanal en cours de développement.

BIOGRAPHY
Composer and guitarist Amy Brandon's pieces have been described as '... mesmerizing' (Musicworks Magazine), "Otherworldly and meditative ... clashing of bleakness with beauty ..." (Minor Seventh) and '... an intricate dance of ancient and futuristic sounds' (Miles Okazaki). Upcoming 2019-20 events include premieres by Upstream Orchestra, KIRKOS Ensemble (Ireland) and Exponential Ensemble (NYC) as well as performances at Winnipeg New Music Festival, the Canadian Music Centre and the centre d’experimentation musicale in Quebec. She has received Canadian and international composition awards including the Leo Brouwer Guitar Composition Competition (Grand Prize), and is currently finishing an interdisciplinary doctorate at Dalhousie University in Halifax, Nova Scotia.

Les pièces de la compositrice et guitariste canadienne Amy Brandon ont été décrites comme " ... hypnotisantes " (Musicworks Magazine) et " d'un autre monde et médidatif... un conflit entre la tristesse et la beauté... " (Minor Seventh). Les événements à venir en 2019-20 comprennent des premières par l'Ensemble KIRKOS (Irlande), l'Ensemble Exponential (NYC) ainsi que des performances et des installations au Festival de musique nouvelle de Winnipeg, au Centre de musique canadienne et au Centre d'expérimentation musicale du Québec. Elle a reçu des prix de composition canadiens et internationaux, dont le Leo Brouwer Guitar Composition Competition (Grand Prix), et termine actuellement un doctorat interdisciplinaire à l'Université Dalhousie à Halifax, en Nouvelle-Écosse.


Taylor Brook (Columbia University)
Agency and Meaning of Computer-Generated Music in Virtutes Occultae
Agentivité et signification de la musique générée par ordinateur dans Virtutes Occultae
vidéo / video

This presentation will explore concepts of compositional meaning that arise from co-creative composing with music-generation software. Drawing from an analysis of the 2017 electroacoustic composition for six microtonal virtual pianos, Virtutes Occultae, the composer will discuss the implications of computer-generated music on the role of the composer. After an overview of how the music-generation software functions in Virtutes Occultae, comparisons with generative commercial music software are made to draw distinctions between developing new styles and extending aesthetic sensibilities versus producing computer-generated music that iterates on established commercial styles.

Cet presentation explore les concepts autour de la signification compositionnelle qui découlent de la musique co-générée avec l'ordinateur. À partir d'une analyse de la composition électroacoustique pour six pianos microtonals virtuelles, Virtutes Occultae, le composituer discutera les implications de la musique generée par l'ordinateur sur le rôle de compositeur. Après un aperçu du fonctionnement du logiciel de génération de musique dans Virtutes Occultae, des comparaisons avec les logiciels de musique commerciale générative sont faites pour établir des distinctions entre le développement de nouveaux styles et l'extension des sensibilités esthétiques et la production de musique générée par ordinateur qui itére sur des styles commerciaux établis.

BIOGRAPHY
Taylor Brook writes concert music, electronic music, and music for video, theatre, and dance. Described as “gripping” and “engrossing” by the New York Times, Brook’s compositions have been performed around the world by ensembles and soloists such as Anssi Kartunnen, Mira Benjamin, JACK Quartet, Mivos Quartet, Nouvel Ensemble Moderne, Quatuor Bozzini, Talea Ensemble, and others. His music is often concerned with finely tuned microtonal sonorities.
In 2018 Brook completed a Doctor of Musical Arts (DMA) in music composition at Columbia University with Fred Lerdahl. He holds a master’s degree in music composition from McGill University. Currently Brook is a Core Lecturer at Columbia University and teaches composition as an adjunct professor at the University of Victoria. Brook is a 2020 Guggenheim Fellow and the technical director of TAK Ensemble.

Taylor Brook écrit de la musique pour des concerts, de la musique électronique, ainsi que de la musique vidéo, théâtre et danse. Décrites comme "captivantes" et "passionnantes" par le New York Times, les compositions de Brook ont été interprétées dans le monde entier par des ensembles et solistes tels que Anssi Kartunnen, Mira Benjamin, JACK Quartet, Mivos Quartet, Nouvel Ensemble Moderne, Quatuor Bozzini, Talea Ensemble et autres. Il a remporté de nombreux prix de la SOCAN pour jeunes compositeurs, dont deux premiers prix et le grand prix en 2016 pour Song, pour violoncelle solo. Sa musique s'intéresse souvent aux sonorités microtonales finement accordées.
En 2018, Brook a obtenu un doctorat en arts musicaux (DMA), en composition musicale à l'Université Columbia avec Fred Lerdahl. Il détient une maîtrise en composition musicale de l'Université McGill. Actuellement, Brook est maître de conférences à l'Université Columbia et il enseigne la composition à l'Université de Victoria. Brook est un boursier Guggenheim et directeur technique du TAK Ensemble.


Michael Century (Rensselaer Polytechnic Institute)
Performance-demonstration of Pauline Oliveros’s Expanded Instrument System for HoA using Spat
Démonstration/performance du système d'instrument élargi pour le HoA de Pauline Oliveros utilisant Spat
vidéo / video

Over the arc of her career as a composer and performer, Pauline Oliveros (1932-2016) maintained an abiding interest in expanding the aperture of temporal experience, and often referred to her own Expanded Instrument System (EIS) as a “time machine”— a device to permit present, past and future to occur, in her own words, “simultaneously with transformations”. With permission from the Pauline Oliveros Trust, I am continuing to develop and here propose a demonstration for the Forum of my own live-electronic music using accordion within a HoA system using Spat. The demonstration will involve my own musical performance and the programming collaboration of Matthew D. Gantt. The EIS system played a significant role not only in Oliveros’s recorded oeuvre, but also has had a significant impact In the broader history of live Electronic Music. My research into the history of the system also would permit me to provide a short resume about Oliveros as an artist and the way her system for manipulating and modulating improvisatory music with time delays developed over half a century. This development began with classic works for tape, followed successively by manual and foot-controlled outboard delay machines of the 1980s, MIDI controlled Max patches (early 1990s), a full digital transcription in MaxMSP (2002) and finally various modules for basic spatialization. The demonstration here proposed uses EIS in conjunction with Spat and provides a significant development in the power of the system, in both aesthetic and technical aspects.

Tout au long de sa carrière de compositrice et d'interprète, Pauline Oliveros (1932-2016) s'est toujours intéressée à l’élargissement de l'expérience temporelle et a souvent qualifié son propre système d'instrument élargi (EIS) de "machine temporelle" - un dispositif permettant au présent, au passé et au futur, selon ses propres termes, "simultanément aux transformations". Avec la permission du Pauline Oliveros Trust, je continue à développer et propose ici une démonstration pour le Forum de ma propre musique électronique live utilisant l'accordéon dans un système HoA utilisant Spat.
La démonstration comprendra ma propre interprétation musicale et la collaboration à la programmation de Matthew D. Gantt. Le système EIS a joué un rôle important non seulement dans l'œuvre enregistrée d'Oliveros, mais a également eu un impact significatif dans l'histoire plus large de la musique électronique en direct. Mes recherches sur l'histoire du système m'ont également permis de fournir un bref résumé sur Oliveros en tant qu'artiste et sur la façon dont son système de manipulation et de modulation de la musique improvisée avec des retards dans le temps s'est développé sur un demi-siècle.
Ce développement a commencé avec des œuvres classiques pour bande, suivies successivement par des machines à retarder manuelles et à commande au pied (1980’s), des patchs Max contrôlés par MIDI (début des années 1990), une transcription numérique complète en MaxMSP (2002) et enfin divers modules pour une spatialisation de base. La démonstration proposée ici utilise l'EIS en conjonction avec Spat et fournit un développement significatif dans la puissance du système, tant sur le plan esthétique que technique.

BIOGRAPHY
Michael Century is a composer, performer and media arts historian, presently working at Rensselaer Polytechnic Institute as Professor Music and New Media in the Department of the Arts, which he joined as department head in 2002. Long associated with The Banff Centre for the Arts, he directed the Centre's Inter-arts program between 1979-1988 and Centre's Media Arts Division in 1988. During the 1990s, he worked as program director for cultural research at the Montréal Centre d'innovation en technologies de l'information, and as senior policy advisor for art and new technology to the federal Department of Canadian Heritage. Century authored the study Pathways to Innovation in Digital Culture for the Rockefeller Foundation, and was panelist and co-author for the U.S. National Academy of Science 2003 report on information technologies and creative practices, Beyond Productivity. Century’s current scholarly interests are in software cultures and theories of socio-technical innovation. His academic degrees are in musicology, from the Universities of Toronto and California at Berkeley, as well as private studies with Nadia Boulanger in Paris and electronic music composition with Kenneth Gaburo at the University of Iowa. His piano, accordion and electronic music performances and compositions have been programmed in festivals and concert series throughout North America and Europe. Matthew D. Gantt is an artist based in Troy, NY. His practice focuses on (dis)embodiment in virtual spaces, procedural systems facilitated by idiosyncratic technology, and the recursive nature of digital production and consumption. He has been an artist-in-residence at Pioneer Works and Bard College, is a current PhD candidate at RPI, and worked as a studio assistant to electronics pioneer Morton Subotnick from 2016 – ’18.

Michael Century est compositeur, interprète et historien des arts médiatiques. Il travaille actuellement à l'Institut polytechnique Rensselaer en tant que professeur de musique et de nouveaux médias au département des arts, qu'il a rejoint en tant que chef de département en 2002. Longtemps associé au Banff Centre for the Arts, il a dirigé le programme Inter-arts du Centre entre 1979-1988 et la Division des arts médiatiques du Centre en 1988. Au cours des années 1990, il a été directeur de programme pour la recherche culturelle au Centre d'innovation en technologies de l'information de Montréal et conseiller principal en politiques pour les arts et les nouvelles technologies au ministère fédéral du Patrimoine canadien. Century est l'auteur de l'étude Pathways to Innovation in Digital Culture pour la Fondation Rockefeller et a été panéliste et co-auteur du rapport sur les technologies de l'information et les pratiques créatives de la National Academy of Science des États-Unis, Beyond Productivity. Century s'intéresse actuellement aux cultures logicielles et aux théories de l'innovation socio-technique. Il est diplômé en musicologie des universités de Toronto et de Californie à Berkeley, ainsi qu'en études privées avec Nadia Boulanger à Paris et en composition de musique électronique avec Kenneth Gaburo à l'Université d'Iowa. Ses interprétations et compositions pour piano, accordéon et musique électronique ont été programmées dans des festivals et des séries de concerts en Amérique du Nord et en Europe. Matthew D. Gantt est un artiste basé à Troy, NY. Sa pratique se concentre sur la (dés)incarnation dans les espaces virtuels, les systèmes procéduraux facilités par la technologie idiosyncrasique et la nature récursive de la production et de la consommation numériques. Il a été artiste en résidence à Pioneer Works et au Bard College, est actuellement candidat au doctorat au RPI et a travaillé comme assistant de studio du pionnier de l'électronique Morton Subotnick de 2016 à 2018.


Christopher Chandler (Union College)
The Generative Sound File Player: A Corpus-Based Approach to Algorithmic Music
Le lecteur de fichiers sonores génératifs : Une approche de la musique algorithmique basée sur le corpus
vidéo / video

The Generative Sound File Player is a composition and performance tool for algorithmically organizing sound. Built in Max and incorporating the bach library and MuBu, the software allows the user to load, analyze, and parametrically control the presentation any number of sound files. At its core is bach’s powerful new bell (bach evaluation language on lllls) scripting language that allows for rich and powerful control of sound through text-based input or a graphical interface. The software sits at the intersection of generative music, concatenative synthesis, and interactive electronics. For the IRCAM Forum Workshop 2020, I propose giving a demonstration of its core functionality, creative applications, and recently developed spatialization capabilities.

Le Generative Sound File Player est un outil de composition et de performance pour l'organisation algorithmique du son. Construit avec Max et intégrant la bibliothèque Bach et MuBu, le logiciel permet à l'utilisateur de charger, d'analyser et de contrôler paramétriquement la présentation d'un nombre illimité de fichiers sonores. Le nouveau langage de script de Bach (bach evaluation language on lllls), qui permet un contrôle riche et puissant du son grâce à une saisie de texte ou une interface graphique, est au cœur de ce système. Le logiciel se trouve à l'intersection de la musique générative, de la synthèse concaténative et de l'électronique interactive. Pour les ateliers du Forum Ircam 2020, je propose de faire une démonstration de ses fonctionnalités de base, de ses applications créatives et de ses capacités de spatialisation récemment développées.

BIOGRAPHY
Christopher Chandler is a composer, sound artist, and the co-founder and executive director of the [Switch~ Ensemble]. He serves as Assistant Professor of Music at Union College in Schenectady, NY where he teaches courses in music theory, composition, and technology. His acoustic and electroacoustic work draws on field recordings, found sound objects, and custom generative software. His music has been performed across the United States, Canada, and France by leading ensembles including Eighth Blackbird, the American Wild Ensemble, the Oberlin Contemporary Music Ensemble, the Cleveland Chamber Symphony, and Le Nouvel Ensemble Moderne. His has received recognition and awards for his music including a BMI Student Composer Award, an ASCAP/SEAMUS Commission, two first prizes from the Austin Peay State University Young Composer's Award, winner of the American Modern Ensemble’s Annual Composition Competition, and the Nadia Boulanger Composition Prize from the American Conservatory in Fontainebleau, France. Christopher received a Ph.D. in composition from the Eastman School of Music, an M.M. in composition from Bowling Green State University, and a B.A. in composition and theory from the University of Richmond.

Christopher Chandler est un compositeur, artiste sonore, et cofondateur ainsi que directeur exécutif du [Switch~ Ensemble]. Il est professeur de musique adjoint à l'Union College de Schenectady, NY, où il enseigne la théorie, la composition et la technologie dans la musique. Ses travaux acoustiques et électroacoustiques s'appuient sur des enregistrements de terrain, des objets sonores trouvés et des logiciels génératifs personnalisés. Sa musique a été jouée aux États-Unis, au Canada et en France par des ensembles de premier plan tels que Eighth Blackbird, l'American Wild Ensemble, l'Oberlin Contemporary Music Ensemble, le Cleveland Chamber Symphony et Le Nouvel Ensemble Moderne. Sa musique a reçu une forte reconnaissance et de nombreux prix, dont un BMI Student Composer Award, une commande ASCAP/SEAMUS, deux premiers prix du Austin Peay State University Young Composer's Award, le prix annuel de composition de l'American Modern Ensemble et le prix Nadia Boulanger du American Conservatory de Fontainebleau, en France. Christopher est titulaire d'un doctorat en composition de la Eastman School of Music, d'une maîtrise en composition de la Bowling Green State University et d'un baccalauréat en composition et théorie de l'Université de Richmond.


Carlos Delgado
Real-time Gestural Control of Sound Synthesis, Spatialization, and Video Effects Parameters
Contrôle gestuel en temps réel des paramètres de synthèse sonore, de spatialisation et d'effets vidéo

vidéo / video

Lev is a gestural control software instrument I have developed that allows for the spontaneous control of sound, video, and spatialization in live performance. Lev takes video data from a laptop computer’s built-in video camera and splits them into three matrices, arranged in the form of a doorway or gate along the outer edges of its field of view. Each of these matrices defines three separate play zones which a live performer uses to generate data that control the instrument’s audio and video output. The play zone for the performer’s right hand provides for control of pitch and duration, while the left hand’s zone can be mapped to control various parameters such as amplitude, pitch-bend, filtering, modulation, etc. Bridging the two is the third matrix, located along the upper edge of the camera’s field of view, which defines a control zone for spatialization (panning and reverberation). The gestural data generated by all three play zones can simultaneously be mapped to control video processing parameters such as chromakeying, brightness, contrast, saturation, etc. The result is a multidimensional performance that amplifies a live performer’s spontaneously produced gestures by expanding their reach into the domains of sound, spatial location, movement, and video. The program was written in Max/MSP, and it is named after Lev Termen, inventor of the Theremin.

Lev est un logiciel de contrôle gestuel que j'ai développé et qui permet le contrôle spontané du son, de la vidéo et de la spatialisation en direct. Lev prend les données vidéo de la caméra intégrée d'un ordinateur portable et les divise en trois matrices, disposées sous la forme d'une porte ou d'une barrière le long des bords extérieurs de son champ de vision. Chacune de ces matrices définit trois zones de lecture distinctes qu'un interprète en direct utilise pour générer des données qui contrôlent la sortie audio et vidéo de l'instrument. La zone de jeu de la main droite de l'interprète permet de contrôler la hauteur et la durée, tandis que la zone de la main gauche peut être mappée pour contrôler divers paramètres comme l'amplitude, le pitch-bend, le filtrage, la modulation, etc. La troisième matrice, située le long du bord supérieur du champ de vision de la caméra, relie les deux et définit une zone de contrôle pour la spatialisation (panoramique et réverbération).
Les données gestuelles générées par les trois zones de lecture peuvent être mappées simultanément pour contrôler les paramètres de traitement vidéo tels que la chromakeie, la luminosité, le contraste, la saturation, etc. Le résultat est un spectacle multidimensionnel qui amplifie les gestes spontanés d'un interprète en direct en élargissant leur portée dans les domaines du son, de la localisation spatiale, du mouvement et de la vidéo. Le programme a été écrit en Max/MSP, et il porte le nom de Lev Termen, inventeur du Theremin.

BIOGRAPHY
Carlos Delgado's music has been heard in concerts, festivals, and radio broadcasts in Argentina, Australia, England, Finland, France, Germany, Hungary, Italy, Japan, Romania, Spain, and the United States. His works have been presented at venues such as Merkin Recital Hall in New York; the 11th Biennial Symposium on Arts and Technology: New Creativity at the Ammerman Center Auditorium, Connecticut; St. Giles Cripplegate / Barbican, in London, England; the Rencontre Internationale de Science & Cinema (RISC) in Marseille, France; the Strada Facendo Festival, in Pisa, Italy; the International Contemporary Music Week and the International Society for Contemporary Music's World Music Days in Bucharest, Romania; and the BKA Theater in Berlin, Germany. His electroacoustic and acousmatic works have also been included in the 2011, 2012, and 2013 editions of EMUFest at Conservatorio Santa Cecilia, Rome; the 2013 and 2014 Festa Europea della Musica festivals in Rome; and the 2018 New York City Electroacoustic Music Festival.
A winner of the 1996 Society of Composers CD Series Award, his works have been recorded by world-class artists such as Emil Sein, Corrado Canonici, Roger Heaton, and Beate-Gabriela Schmitt, and are available on the New World Records, Living Artist, Capstone Records, and Sonoton ProViva labels.
He has appeared as a laptop performer at Symphony Space and the Abrons Art Center (New York); the Titu Maiorescu Romanian Cultural Institute in Berlin; the Musica Senza Frontiere Festival, in Perugia; and many others. www.carlosdelgadomusic.com.

La musique de Carlos Delgado a été jouée lors de concerts, de festivals et d'émissions de radio en Argentine, en Australie, en Angleterre, en Finlande, en France, en Allemagne, en Hongrie, en Italie, au Japon, en Roumanie, en Espagne et aux États-Unis. Ses œuvres ont été présentées dans des lieux tels que le Merkin Recital Hall à New York, le 11e Symposium biennal sur les arts et la technologie : Giles Cripplegate / Barbican, à Londres, Angleterre ; la Rencontre Internationale de Science & Cinema (RISC) à Marseille, France ; le Festival Strada Facendo, à Pise, Italie ; la Semaine internationale de la musique contemporaine et les Journées mondiales de la musique contemporaine de la Société internationale pour la musique contemporaine à Bucarest, Roumanie ; le Théâtre BKA de Berlin, Allemagne. Ses œuvres électroacoustiques et acousmatiques ont également été incluses dans les éditions 2011, 2012 et 2013 du EMUFest au Conservatorio Santa Cecilia, Rome ; dans les festivals Festa Europea della Musica 2013 et 2014 à Rome ; et dans le New York City Electroacoustic Music Festival 2018.
Lauréat du prix de la série CD de la Society of Composers en 1996, ses œuvres ont été enregistrées par des artistes de renommée mondiale comme Emil Sein, Corrado Canonici, Roger Heaton et Beate-Gabriela Schmitt, et sont disponibles sur les labels New World Records, Living Artist, Capstone Records et Sonoton ProViva.
Il s'est produit en tant qu'interprète sur ordinateur portable à Symphony Space et au Abrons Art Center (New York) ; à l'Institut culturel roumain Titu Maiorescu à Berlin ; au Festival Musica Senza Frontiere, à Pérouse ; et bien d'autres. www.carlosdelgadomusic.com.


François-Xavier Féron (STMS Lab [CNRS, Ircam, Sorbonne Université]), Cédric Camier (Saint-Gobain Recherche, CIRMMT), Catherine Guastavino (McGill University, CIRMMT)
The sound centrifuge: spatial effects induced by circular trajectories at high velocity
La centrifugeuse sonore :les effets spatiaux induits par les trajectoires circulaires à grande vitesse
vidéo / video

“If revolutions of sound in space go beyond a certain barrier of revolutions per second, they become something else” explained Karlheinz Stockhausen during a conversation with Jonathan Cott in 1971. Later, the Portuguese composer Emmanuel Nunes, in close collaboration with computer music designer Eric Daubresse, experimented at Ircam with sounds moving at very high velocities and observed new perceptual effects. These musical experimentations inspired us to initiate a line of research on the perception of spatial figures back in 2009.
Through a series of controlled scientific experiments conducted at CIRMMT, we were able to document perceptual mechanisms at play to track moving sounds. We estimated perceptual thresholds for auditory motion perception and velocity perception and investigated the influence of reverberation, spatialization techniques and loudspeaker configurations. Throughout this process, new tools based on a hybrid spatialization method combining numerical propagation and angle based amplitude panning, were developed to move sounds around the listener at very high velocities. At such velocities, the revolution frequency is in the same order of magnitude as audible frequencies. New effects were obtained by manipulating the listener position, the direction of revolution, the velocity and the nature of the sound material using our custom-built “sound centrifuge” developed in Max-MSP. They include spatial ambiguities, Doppler pitch-shifting and amplitude modulation induced by velocity apparent variation, timber enrichment, spatial beating (amplitude modulation pattern as a function of the revolution frequency and the sound fundamental frequency) and a spatial wagon-wheel effect, all dependant on the listening position.
These effects were first used for creative purposes in two multichannel electro-acoustic pieces by composer Cédric Camier created in 2017 and 2019. In this demonstration, effects will be presented parametrically as core elements of spatial studies based on velocity.

"Si les révolutions du son dans l'espace dépassent un certain seuil de révolutions par seconde, elles deviennent autre chose" explique Karlheinz Stockhausen lors d'une conversation avec Jonathan Cott en 1971. Plus tard, le compositeur portugais Emmanuel Nunes, en étroite collaboration avec l'informaticien Eric Daubresse, expérimente à l'Ircam des sons se déplaçant à des vitesses très élevées et observe de nouveaux effets perceptuels. Ces expérimentations musicales nous ont inspiré à initier une ligne de recherche sur la perception des figures spatiales dès 2009.
Grâce à une série d'expériences scientifiques contrôlées, menées au CIRMMT, nous avons pu documenter les mécanismes perceptifs en jeu pour suivre les sons en mouvement. Nous avons estimé les seuils de détection perceptive pour la réception auditive du mouvement et la perception de la vitesse et étudié l'influence de la réverbération, des techniques de spatialisation et des configurations de haut-parleurs. Tout au long de ce processus, de nouveaux outils basés sur une méthode de spatialisation hybride combinant la propagation numérique et le panoramique d'amplitude basé sur l'angle, ont été développés pour déplacer les sons autour de l'auditeur à très haute vitesse.
A de telles vitesses, la fréquence de rotation est du même ordre de grandeur que les fréquences audibles. De nouveaux effets ont été obtenus en manipulant la position de l'auditeur, la direction de la rotation, la vitesse et la nature du matériau sonore à l'aide de notre "centrifugeuse sonore" sur mesure développée avec Max-MSP. Il s'agit notamment des ambiguïtés spatiales, du décalage Doppler du pitch-shifting et de la modulation d'amplitude induite par la variation apparente de la vitesse, de l'enrichissement du bois, du battement spatial (modulation d'amplitude en fonction de la fréquence de révolution et de la fréquence fondamentale du son) et d'un effet spatial wagon-roue, tous dépendant de la position de l'écoute.
Ces effets ont d'abord été utilisés à des fins créatives dans deux pièces électroacoustiques multicanales du compositeur Cédric Camier créées en 2017 et 2019. Dans cette démonstration, les effets seront présentés de façon paramétrique comme des éléments centraux des études spatiales fondées sur la vitesse.

BIOGRAPHY
François-Xavier Féron is researcher at the French National Centre for Scientific Research (CNRS). He is affiliated to Science and Technology of Music and Sound laboratory (STMS – CNRS, Ircam, Sorbonne université) and is member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).
Cédric Camier is an electroacoustic composer and research engineer in Acoustics affiliated to Saint-Gobain Recherche. He is also member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).
Catherine Guastavino is associate professor (William Dawson Scholar - School of Information Studies, McGill University) and member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).

François-Xavier Féron est chercheur au CNRS. Il est affilié au Laboratoire des sciences et technologies de la musique et du son (STMS - CNRS, Ircam, Sorbonne université) et est membre du Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT).
Cédric Camier est compositeur électroacoustique et ingénieur de recherche en acoustique affilié à Saint-Gobain Recherche. Il est également membre du Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT).
Catherine Guastavino est professeure agrégée (boursière William Dawson - School of Information Studies, Université McGill) et membre du Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT).


Emilie Fortin and Sophie Dupuis
Reconceptualiser une oeuvre interdisciplinaires: Known Territories 2.0.
Reconceptualizing an Interdisciplinary Work: Known Territories 2.0
vidéo / video

En octobre 2017, Sophie Dupuis a composé la pièce Known Territories pour trompette, bande et deux danseurs.ses. L'oeuvre faisait référence aux souvenirs et à l'enfance; comment le futur est toujours lié au passé, et comment le présent est toujours chargé de ces deux dimensions. Known Territories fut présentée à Array Music (Toronto), la ville d'études à ce moment de la compositrice. Après plusieurs discussions, il devenait évident qu'il n'était pas nécessairement facile de faire voyager la pièce dû à l'effectif de base. C'est pour cela que Dupuis/Fortin a décidé d'en faire une version pour trompette solo et bande, mais sans rien enlever de la trame narrative de l'oeuvre de base. Cette bande est en fait composée d’extraits déclenchés à des moments spécifiques au cours de la pièce, afin de donner à Émilie l’espace pour s’exprimer librement à travers son jeu. Elle intégrera plusieurs éléments venant de la danse, du mime et du théâtre dans sa performance. Cette composition représente les souvenirs de l’enfance de Sophie passée dans un village rural du Nouveau-Brunswick, dans une maison isolée située sur un grand terrain qui semblait devenir féérique au crépuscule, avec ses chants de grenouilles et lucioles scintillantes. La mélancolie ressentie lorsque ces souvenirs lui reviennent, ainsi que le réconfort et l’inconfort à la fois, ont été transmis en musique. Known Territories sort des sentiers battus de la performance musicale traditionnelle, en demandant à l'interprète de dépasser ses limites physiques, tout en étant supporté.e par l’électronique qui ajoute une autre dimension à l’œuvre.

In October 2017, Sophie Dupuis composed the piece Known Territories for trumpet, tape, and two dancers. The work referred to memories and childhood; how the future is always linked to the past, and how the present is always charged with these two dimensions. Known Territories was performed at Array Music (Toronto), the city where the composer was studying at the time. After several discussions, it became clear that it was not necessarily easy to tour with the piece due to the size of the ensemble. This is why Dupuis/Fortin decided to make a version for solo trumpet and tape, but without taking anything away from the narrative framework of the original work. The tape is in fact composed of excerpts triggered at specific moments during the piece, in order to give Émilie the space to express herself freely through her playing. She will integrate several elements from dance, mime and theater in her performance. This composition represents memories of Sophie's childhood spent in a rural New Brunswick village, in an isolated house located on a large lot that seemed to become magical at dusk, with its frog songs and sparkling fireflies. The melancholy she feels when these memories come back to her, as well as the comfort and discomfort she feels at the same time, have been conveyed through music. Known Territories goes off the beaten path of traditional musical performance, asking the performer to go beyond her physical limits, while being supported by electronics that add another dimension to the work.

BIOGRAPHY
Émilie Fortin is an adventurous musician and teacher who explores every possible facet of the trumpet. A versatile performer and improviser, she has contributed to the creation of over twenty works internationally with various composers in an effort to enrich the repertoire of her instrument. She’s also the artistic director of the collective of soloists Bakarlari and a member of the duo Violete (trumpet/violin). She participated in many workshops with, among others, the International Contemporary Ensemble (Peter Evans), MusikFabrik (Marco Blaauw) and Ensemble Modern.
Sophie Dupuis is a composer from New Brunswick interested in interdisciplinary art music and music for small and large ensembles. She is recognized for her impressive technique and endless imagination. She finds her voice in her childhood spent in the picturesque scenery of the Maritimes and, conversely, by her attraction to raw, electrical and harsh sounds. Her works have been played in workshops by the Toronto Symphony Orchestra and Symphony Nova Scotia, and in concerts by ensembles including duo aTonalHits, the Array ensemble and Architek Percussion. She has been commissioned and performed by Caution Tape Sound Collective, Thin Edge New Music Collective, and most recently by ECM+ for their Generation2018 tour.
Known Territories stems from a close collaboration between Canadian composer Sophie Dupuis and trumpetist Émilie Fortin. The two have a keen interest in exploring works that showcase performers in their entirety, through play, theatrics and electronics.

Émilie Fortin est une musicienne et enseignante aventureuse qui explore toutes les facettes possibles de la trompette. Interprète et improvisatrice polyvalente, elle a contribué à la création de plus d'une vingtaine d'œuvres internationales avec divers compositeurs afin d'enrichir le répertoire de son instrument. Elle est également directrice artistique du collectif de solistes Bakarlari et membre du duo Violete (trompette/violon). Elle a participé à de nombreux ateliers avec, entre autres, l'International Contemporary Ensemble (Peter Evans), MusikFabrik (Marco Blaauw) et Ensemble Modern.
Sophie Dupuis est une compositrice du Nouveau-Brunswick qui s'intéresse à la musique artistique interdisciplinaire et à la musique pour petits et grands ensembles. Elle est reconnue pour sa technique impressionnante et son imagination débordante. Elle trouve sa voix dans son enfance passée dans les paysages pittoresques des Maritimes et, inversement, par son attirance pour les sons bruts, électriques et durs. Ses œuvres ont été jouées dans le cadre d'ateliers par le Toronto Symphony Orchestra et le Symphony Nova Scotia, et de concerts par des ensembles comme le duo aTonalHits, l'ensemble Array et Architek Percussion. Elle a été commandée et interprétée par Caution Tape Sound Collective, Thin Edge New Music Collective, et plus récemment par ECM+ pour leur tournée Generation2018.
Known Territories est le fruit d'une étroite collaboration entre la compositrice canadienne Sophie Dupuis et la trompettiste Émilie Fortin. Les deux artistes s'intéressent vivement à l'exploration d'œuvres qui mettent en vedette les artistes dans leur intégralité, par le jeu, le théâtre et l'électronique.


Matthew D. Gantt (Rensselaer Polytechnic Institute)
Sound and Virtuality: Creative VR, Ambisonics and Expanded Composition
Le son et la virtualité : RV créative, ambisonique et composition élargie
vidéo / video

Virtual reality offers the contemporary composer a number of affordances beyond the creation of games, simulations, or simple 'audio-visual' music. This demonstration will showcase new approaches for applying techniques common to generative music, modular-style patching and electronic composition to immersive environments via OSC bridging of Unity/VR, Max/MSP, and IRCAM's Spat~/Panoramix. Hands-on demonstrations of VR works-in-progress will show both 'composer-friendly' methodologies for working with real-time spatial sound and immersive media, as well as new conceptual frames for approaching contemporary VR, such as digital kinetic sculpture, immersive media as simultaneous site and score for performance, and VR as both sonic instrument and concert hall.

La réalité virtuelle offre au compositeur contemporain un certain nombre de possibilités au-delà de la création de jeux, de simulations ou de la simple musique "audiovisuelle". Cette démonstration présentera de nouvelles approches autour de l'application de techniques communes à la musique générative, au patch de style modulaire et à la composition électronique à des environnements immersifs par le biais de la passerelle OSC d'Unity/VR, Max/MSP, et Spat~/Panoramix de l'Ircam. Des démonstrations pratiques d'œuvres de RV en cours montreront à la fois des méthodologies "conviviales pour le compositeur" pour travailler avec le son spatialisé en temps réel et les médias immersifs, ainsi que de nouveaux cadres conceptuels pour aborder la RV contemporaine comme sculpture cinétique numérique, les médias immersifs comme site et partition simultanés pour la performance et la RV comme instrument sonore et salle de concert.

BIOGRAPHY
Matthew D. Gantt is an artist and composer based in Troy, NY. His practice focuses on (dis)embodiment in virtual spaces, procedural systems facilitated by idiosyncratic technology, and the recursive nature of digital production and consumption. He has presented at a range of institutional and grassroots spaces including Panoply Performance Laboratory, Harvestworks, New Museum, The Stone, Issue Project Room, and internationally at IRCAM Academy (via CIEE) and Koma Elektronik, among others.
He has been an artist-in-resident at Pioneer Works, Bard College, and Signal Culture, and is a current PhD candidate at Rensselaer Polytechnic Institute. Gantt releases music with Orange Milk and Oxtail Recordings, and worked as a studio assistant to electronics pioneer Morton Subotnick from 2016 – ’18.

Matthew D. Gantt est un artiste et compositeur basé à Troy, NY. Sa pratique se concentre sur la (dés)incarnation dans les espaces virtuels, les systèmes procéduraux facilités par la technologie idiosyncratique et la nature récursive de la production et de la consommation numériques. Il a fait des présentations dans divers espaces institutionnels et locaux, notamment au Panoply Performance Laboratory, à Harvestworks, au New Museum, à The Stone, à Issue Project Room et à l'IRCAM Academy (via CIEE) et Koma Elektronik, entre autres.
Il a été artiste en résidence à Pioneer Works, au Bard College et à Signal Culture, et il est actuellement candidat au doctorat de Rensselaer Polytechnic Institute. Gantt produit et distribue sa musique avec Orange Milk et Oxtail Recordings, et a travaillé comme assistant de studio du pionnier de l'électronique Morton Subotnick de 2016 à 2018.


Nicola Giannini (Université de Montréal, CIRMMT)
Eyes Draw Circles of Light, acousmatic piece for dome of speakers
Eyes Draw Circles of Light, pièce acousmatique pour dôme de haut-parleurs
vidéo / video

Eyes Draw Circles of Light explores specific aspects of the human unconscious, characterizing that brief moment when we are about to fall asleep. Through sound spatialization, a multidimensional unconscious representation was created that evokes the relationship between psyche and body. The fast and involuntary body movements, hypnic jerks, that may occur at that time have been underlined. The work is a collaboration with the artists Elisabetta Porcinai and Alice Nardi, who wrote a poem for it, and aims to find a balance between elegance and experimentation. The text was interpreted by Porcinai. The work was composed in the immersive music studios at the Université de Montréal.

Eyes Draw Circles of Light explore des aspects spécifiques de l’inconscient lorsqu’on est sur le point de s’endormir. Au moyen de la spatialisation sonore, la relation entre la psyché et le corps est évoquée. L’accent est sur ces mouvements involontaires rapides, les secousses hypniques, qui marquent ce moment. La pièce est le fruit d’une collaboration avec les artistes Elisabetta Porcinai et Alice Nardi, qui ont écrit un poème pour la pièce, et vise à trouver un équilibre entre élégance et expérimentation. Porcinai a interprété le texte. L'œuvre a été composée dans les studios de musique immersive de l'Université de Montréal.

BIOGRAPHY
Nicola Giannini is a Sound Artist and an Electroacoustic Music Composer based in Montreal, Canada. His practice focuses on immersive music, both acousmatic and performed. He is interested in sounds that evoke physical materials. His works have been presented at the Toronto International Electroacoustic Symposium (TIES), Akosuma Festival (Canada), Cube Fest, ICMC, New York City Electroacoustic Music Festival (USA), TEDxLondon, Sound-Image Colloquium, Serge Postgraduate Conference (UK), Sound Spaces (Sweden), File Festival (Brazil), Coloquio Internacional : Espacio-Inmersividad, Electroacoustic Music International Exhibition (Mexico), Palazzo Strozzi Museum, Audior and Tempo Reale (Italy), among others. In July 2017 he has been a guest composer at the EMS in Stockholm.
His piece “Eyes Draw Circles of Light” obtained the first prize at the Jeux de Temps / Times Play (JTTP) 2019 competition organized by the Canadian Electroacoustic Community, and an Honorable Mention at the XII° Fundación Destellos (Argentina) Electroacoustic Competition 2019. His piece “For Hannah” was chosen as finalist at the International composition competition Città di Udine 2018.
Originally from Italy, Nicola has a master degree in Electroacoustic Composition from the Conservatory of Florence, with honourable mention. Nicola is a doctoral student (D.Mus) at the Université de Montréal, under the supervision of Robert Normandeau, and is presently a research assistant with the Groupe de recherche en immersion spatiale (GRIS). He is one of the student coordinators at CIRMMT for the Research Axis on Expanded musical practice.

Nicola Giannini est un artiste sonore et un compositeur de musique électroacoustique basé à Montréal. Sa pratique s’articule autour de la musique immersive, acousmatique ou en direct. Il s’intéresse aux sons qui évoquent des matériaux physiques. Ses œuvres ont été présentées au Toronto International Electroacoustic Symposium (TIES), Akousma (Canadà), Cube Fest, ICMC, Nycemf (É.-U.), TEDxLondon, Sound-Image Colloquium, Serge Postgraduate Conference (R.-U.), Sound Spaces (Suède), File Festival (Brésil), Coloquio Internacional : Espacio-Inmersividad, Electroacoustic Music International Exhibition (Mexique), Museo Palazzo Strozzi, Audior, Tempo Reale (Italie), parmi d’autres. En juillet 2017, il a été compositeur invité à l'EMS de Stockholm.
Sa pièce Eyes Draw Circles of Light a obtenu le premier prix au concours Jeux de Temps / Times Play (JTTP) 2019 organisé par la Communauté électroacoustique canadienne et a reçu une mention d’honneur au Concours 2019 de la Fundación Destellos. Sa pièce For Hannah a été choisie comme finaliste au concours international de composition Città di Udine 2018.
Originaire d’Italie, Nicola est titulaire d’une maîtrise en composition électroacoustique du Conservatoire de Florence. Il est étudiant au doctorat à l’Université de Montréal sous la direction de Robert Normandeau et il est actuellement assistant de recherche au Groupe de recherche en immersion spatiale. Il est l'un des coordinateurs étudiants au CIRMMT pour l'Axe de recherche sur la pratique musicale élargie.


Louis Goldford (Columbia University)
Assisted Orchestration, Spatialization, and Workflow in Two Recent Compositions
Orchestration, spatialisation et flux de travail assistés dans deux compositions récentes
vidéo / video

In this presentation concentrating on my latest two works from 2019, I will discuss my extended use of Orchidea, the latest assisted orchestration platform in the Orch* tools lineage, and spatialization using OpenMusic and the Ircam Spat~ package for Max.
These pieces include “Au-dessus du carrelage de givre” for tenor, electronics, and video, premiered at the Soirée du Cursus at the Ircam ManiFeste, 18 June 2019 at the Centquatre, Paris, as well as “Tell Me, How Is It That I Poisoned Your Soup?” for 12 players and live electronics, premiered by the Talea Ensemble in New York City, 31 March 2019 at the DiMenna Center for Classical Music. Score, sound, and video excerpts will be presented alongside examples from the software tools used to generate specific passages.
Because these tools generate lots of intermediate files, including Max and OpenMusic patches, orchestral analysis and resynthesis, and video work, it quickly becomes necessary to organize one’s studio workflow in a deliberate way. I will offer some solutions for coordinating and synchronizing project files over many computers using the Git version control architecture, with particular emphasis on how such tools may be harnessed by artists and creators.

Dans cette présentation se concentrant sur mes deux derniers travaux de 2019, je discuterai de mon utilisation étendu d'Orchidea, la dernière logiciel d'orchestration assistée de la lignée des outils Orch*, et de la spatialisation à l'aide d'OpenMusic et du package Spat~ de l’Ircam pour le Max.
« Au-dessus du carrelage de givre » pour ténor, électronique et vidéo, créé à la Soirée du Cursus à l'Ircam ManiFeste, le 18 juin 2019 au Centquatre à Paris; ainsi que « Dîtes-moi, comment ai-je empoisonné votre soupe ? » pour 12 musiciens et électronique, créé par l’Ensemble Talea à New York, le 31 mars 2019, au DiMenna Center for Classical Music. Des extraits de partitions, de sons et de vidéos seront présentés, ainsi que des exemples d'outils logiciels utilisés pour générer des passages spécifiques.
Étant donné que ces outils génèrent de nombreux fichiers intermédiaires, y compris les patches de Max et OpenMusic, les analyses et synthèses orchestrales et le travail sur le vidéo, il devient rapidement nécessaire d’organiser son flux de travail en studio de manière délibérée. Je proposerai des solutions pour la coordination et de la synchronisation des fichiers de projet sur de nombreux ordinateurs utilisant l'architecture de version control du type Git, en mettant l'accent sur la manière dont de tels outils peuvent être maîtrisés par les artistes et les créateurs.

BIOGRAPHY
Louis Goldford is a composer of acoustic and mixed music whose works are often inspired by auditory illusion, transcription and psychoanalysis. He has collaborated with ensembles such as the JACK Quartet, Ensemble Dal Niente, Ensemble Modelo62, the Meitar Ensemble, Rage Thormbones, and Yarn/Wire. His recent projects include premieres with the Talea Ensemble in New York, with violinist Marco Fusi in Paris, a concert with the musicians of the Cité internationale des arts and the Conservatoire supérieur de Paris, as well as a premiere in collaboration with IRCAM as part of of the festival ManiFESTE in June 2019.
His works have been presented at many contemporary music festivals across Europe and North America, as well as at international conferences. Louis has also performed as a saxophonist and electronic musician in Taiwan, Poland and the United States. His orchestral piece, Uncanny Valley (2014), received an honorable mention by the 2017 Minnesota Orchestra Composers Institute and the 2015 American Composers Orchestra / Underwood New Music Readings. Louis is currently a Dean's Fellow at Columbia University in New York, where he studies composition with Georg Friedrich Haas, Zosha Di Castri, George Lewis, Brad Garton and Fred Lerdahl. In workshops and individual lessons Louis also worked with Brian Ferneyhough, Philippe Leroux, Yan Maresz, Chaya Czernowin and Magnus Lindberg. More info: louisgoldford.com.

Louis Goldford est un compositeur de musique acoustique et mixte dont les œuvres s'inspirent souvent de l'illusion auditive, de la transcription et de la psychanalyse. Il a collaboré avec des ensembles tels que JACK Quartet, Ensemble Dal Niente, Ensemble Modelo62, Meitar Ensemble, Rage Thormbones, et Yarn/Wire. Ses projets récents incluent des créations avec l’Ensemble Talea de New York, le violoniste Marco Fusi à Paris, un concert avec les musiciens de la Cité des arts et du Conservatoire supérieur de Paris, ainsi qu’une création en collaboration avec l’Ircam dans le cadre du festival ManiFESTE en juin 2019.
Ses œuvres ont été présentées dans de nombreux festivals de musique contemporaine à travers l’Europe et l’Amérique du Nord, ainsi que lors de conférences internationales. Louis a également joué comme saxophoniste et musicien électronique à Taïwan, en Pologne et aux États-Unis. Sa pièce Uncanny Valley (2014) pour orchestre a reçu une mention honorable par le Minnesota Orchestra Composers Institute 2017 et par l'American Composers Orchestra 2015/Underwood New Music Readings. Louis est actuellement bénéficiaire d’une bourse d’étude de l’Université Columbia à New York, où il étudie la composition avec Georg Friedrich Haas, Zosha Di Castri, George Lewis, Brad Garton et Fred Lerdahl. Lors d’ateliers et de leçons individuelles Louis a également bénéficié des enseignements de Brian Ferneyhough, Philippe Leroux, Yan Maresz, Chaya Czernowin et Magnus Lindberg. Plus d’info: louisgoldford.com.


Andrea Gozzi (SAGAS—University of Florence)
Listen to the theatre! Exploring Florentine performative spaces

Écoutez le théâtre! En explorant les lieux de spectacle à Florence

vidéo / video

A music performance space constitutes the frame as well as the content of the listeners’ experience. The acoustic environment forces continuous negotiations that differ according to a listener’s role and position as composer, performer or audience member. The aim of my research is to investigate the acoustics of a performative space, the Teatro del Maggio Musicale Fiorentino in Florence, following two complementary paths, both based on an interactive model. The first offers an impulse-response experience: the user can virtually explore the opera hall by choosing between the binaural reproductions of 13 different listening positions. The second is about the aural and visual perception of a performance of the romance “Una furtiva lagrima” from Donizetti’s opera L’elisir d’amore. The user, through ambisonics, 360 degree videos and virtual reality, will experience this performance from three different positions in the theatre: on stage, in the orchestra pit and in the audience seating.

L'espace où se déroule une performance musicale constitue en même temps le cadre et le contenu de l’expérience auditive. Le paysage sonore d'un concert impose des négociations continues qui diffèrent selon le rôle et la position de l’auditeur en tant que compositeur, interprète ou spectateur. Ma recherche est consacrée à l'étude de l'acoustique d'un lieu de spectacle, le Teatro del Maggio Musicale Fiorentino de Florence, en suivant deux voies complémentaires, toutes les deux basées sur deux modèles interactifs. Dans le premier l'utilisateur peut explorer virtuellement l'acoustique de la grande salle du théâtre en choisissant entre les reproductions binaurales de 13 positions d'écoute différentes. Le second modèle concerne la perception audiovisuelle d'une répétition de la Romanza «Una furtiva lagrima» de l'opéra L'elisir d’amore de Donizetti. L'utilisateur, à travers la réalité virtuelle constituée par l'ambisonie et les vidéos à 360 degrés, vivra cette performance à partir de trois positions différentes en théâtre : sur scène, dans la fosse d'orchestre et dans les sièges du public.

BIOGRAPHY
Musicien et musicologue ; diplômé en musique de l'Université de Paris 8 Vincennes-Saint-Denis et membre de l'équipe du Tempo Reale, centre de recherche, de production et de pédagogie musicale de Florence, fondé par Luciano Berio. Doctorant à SAGAS (Université de Florence), Andrea Gozzi est également professeur de Sound Design à l'Académie LABA de Florence et professeur d'Histoire du Rock et de Sound Design à DAMS (Université de Florence). En tant que musicien, il a travaillé avec des artistes italiens et internationaux, aussi bien en live qu'en studio.participant à des événements tels que LIVE 8 à Rome en 2005, il a également joué en France, en Angleterre, en Allemagne et au Canada.il a publié des livres et des essais sur l'histoire du rock et des biographies musicales en Italie et au Canada.

Musician and musicologist, graduate of Université Paris 8 Vincennes-Saint-Denis in music, and team member of Tempo Reale, the Florence centre for research, production, and musical pedagogy founded by Luciano Berio. PhD student at SAGAS (University of Florence), Andrea Gozzi is also a lecturer in Sound Design at the Académie LABA of Florence and in rock history and Sound Design at DAMS (University of Florence). As a musician, he has worked with Italian and international artists, live and in the studio. A participant in events such as LIVE 8 in 2005 in Rome, he has also played in France, England, Germany, and Canada. He has published books and essays dedicated to the history of rock and musical biographies in Italy and in Canada.


Florian Grond and Wieslaw Woszczyk (McGill University)
Exploring the possibilities of navigating and presenting music performances with a 6DoF capture system
Explorer les possibilités de navigation et de présentation des performances musicales avec un système de capture 6DoF
vidéo / video

Capturing multiple sound fields in a music performance space is nowadays possible using several synced higher order microphone arrays separated in space. With post-processing software for the interpolation between these points of capture, this new technology is known as 6DoF, as it affords 3 translational degrees of freedom across the scene, in addition to the already existing 3 rotational degrees of freedom within a single point. This offers new possibilities in the post-production step with regards to selection from the capture and balancing the recorded acoustic scene. In the context of VR, 6DoF offers new possibilities for immersing the listener into original audio content that covers an extended space, e.g. orchestral ensembles. This gives the listeners the possibility to explore the performance space with their own navigation strategies using interactive tools enabling rotation and translation. Depending on the spatial resolution of sound field capture, a range of possibilities is available in sound balancing, including variations in perspective, separation of sources and ambience, degree of sharpness and diffusion of the image in a 3D presentation. The authors will share their findings from the exploration of 6DoF captures using first order and third order Ambisonics microphone arrays at multiple locations of a performance space. The authors will also discuss various trade offs that may be considered in further improving the quality and flexibility of capturing music via multiple sound fields. Considerations will also be given with respect to reproductions in standard channel-based formats for 2D and 3D sound projections.

De nos jours, il est possible de capturer plusieurs champs sonores dans un espace de performance musicale en utilisant plusieurs réseaux de microphones synchronisés d'ordre supérieur, séparés dans l'espace. Avec un logiciel de post-traitement pour l'interpolation entre ces points de capture, cette nouvelle technologie est connue sous le nom de 6DoF, car elle offre 3 degrés de liberté translationnelle à travers la scène, en plus des 3 degrés de liberté de rotation déjà existants dans un seul point. Ceci offre de nouvelles possibilités dans l'étape de post-production en ce qui concerne la sélection à partir de la capture et l'équilibrage de la scène acoustique enregistrée. Dans le contexte de la RV, 6DoF offre de nouvelles possibilités pour immerger l'auditeur dans un contenu audio original qui couvre un espace étendu, par exemple des ensembles orchestraux. Cela donne aux auditeurs la possibilité d'explorer l'espace du spectacle avec leurs propres stratégies de navigation à l'aide d'outils interactifs permettant la rotation et la translation. En fonction de la résolution spatiale de la capture du champ sonore, un éventail de possibilités est possible pour l'équilibrage du son, y compris les variations de perspective, la séparation des sources et de l'ambiance, le degré de netteté et la diffusion de l'image dans une présentation 3D. Les auteurs partageront les résultats de l'exploration des captures 6DoF à l'aide de réseaux de microphones Ambisonics de premier et de troisième ordre à plusieurs endroits d'un espace de représentation. Ils discuteront également de divers compromis qui pourraient être envisagés pour améliorer davantage la qualité et la souplesse de la capture de la musique par le biais de champs sonores multiples. Des réflexions seront également prises en compte en ce qui concerne les reproductions dans des formats standard basés sur les canaux pour les projections sonores 2D et 3D.

BIOGRAPHY
Florian Grond is a sonic interaction designer working as a research associate in the Sound Recording Department of the Schulich School of Music at McGill University. He has several years of experience in spatial sound recording (microphone arrays) and higher order Ambisonics reproduction. His research and design interests are multi-modal participatory design with a focus on sound in the context of disability, the arts, and assistive technology. For many years he has also been active as an independent media artist, exhibiting his works at several venues across the globe.
Wieslaw Woszczyk is an internationally recognized researcher and educator in the domain of audio. He is a leading expert in emerging audio technologies. Woszczyk is a James McGill Professor and Professor of Music at McGill University. He was  the founding director of the graduate program in sound recording (1978) and founding director of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT), an interuniversity, interfaculty, and interdisciplinary research centre created at McGill in 2001.

Florian Grond est concepteur en interaction sonore et travaille comme associé de recherche au département d'enregistrement sonore de l'École de musique Schulich de l'Université McGill. Il a plusieurs années d'expérience dans l'enregistrement sonore spatial (réseaux de microphones) et la reproduction Ambisonics d'ordre supérieur. Ses intérêts de recherche et de conception concerne la conception participative multimodale axée sur le son dans le contexte du handicap, des arts et de la technologie d'assistance. Pendant de nombreuses années, il a également été artiste média en indépendant, exposant ses œuvres à travers le monde.
Wieslaw Woszczyk est un chercheur et un éducateur reconnu au niveau international dans le domaine de l'audio. Il possède une expertise de premier plan dans les tendances technologiques émergentes en matière d'audio. Woszczyk est titulaire de la bourse de recherche James McGill et professeur titulaire à l'Université McGill. Il est le directeur fondateur du programme d'études supérieures en enregistrement sonore (1978) et le directeur fondateur du Centre de recherche interdisciplinaire sur les médias et la technologie musicale (CIRMMT), un centre de recherche interuniversitaire, interfacultaire et interdisciplinaire créé à l'Université McGill en 2001. 


Catherine Guastavino, Valérian Fraisse (McGill University, CIRMMT), Simone d'Ambrosio, Etienne Legast (Audiotopie), Maryse Lavoie (Le Plateau de Mont-Royal)
Spatial sound art in public spaces
L’art sonore spatial dans les espaces publics
vidéo / video

We present an interdisciplinary collaboration between McGill, Audiotopie and Plateau-Mont-Royal borough around the design and evaluation of spatial sound installations in Montreal. In the summer 2019, the new public square Place des Fleurs-de-Macadam was equipped with a soundlevel meter for acoustic monitoring and the Dryade set-up of 8 speakers developed by Audiotopie. The analysis of questionnaires previously collected on-site and acoustic monitoring allowed us to identify the main activities conducted in and around the square throughout the day. These results informed the compositional process in terms of temporal evolution over the course of the day so that the sound art would resonate with the desired ambiances. Two contrasting compositional strategies, identified in the literature, were deployed, namely an integrated static composition, meant to blend in with the ambient soundscape and an oppositional spatial composition, meant to emerge and grab attention as users move through the space.
A total of 700 questionnaires, collected with passers-by before and during the installation, revealed that the public square was perceived a more pleasant, calmer and less loud in the presence of sound art. These results highlight the potential to purposefully shape public spaces with sound art. The work was conducted as part of the Sounds in the city partnership, which brings together researchers, sound artists, city makers and city users, to look at urban sound from a novel, resource-oriented perspective and nourish creative solutions to make cities sound better.

Nous présenterons une collaboration interdisciplinaire entre McGill, Audiotopie et l'arrondissement Plateau-Mont-Royal autour de la conception et de l'évaluation des installations sonores spatiales à Montréal. A l'été 2019, la nouvelle place des Fleurs-de-Macadam a été équipée d'un sonomètre pour la surveillance acoustique et la mise en place de 8 enceintes Dryade développées par Audiotopie. L'analyse des questionnaires préalablement collectés sur place et le suivi acoustique ont permis d'identifier les principales activités réalisées tout au long de la journée à l'intérieur et autour de la place. Ces résultats ont éclairé le processus de composition en termes d'évolution temporelle au cours de la journée afin que l'art sonore résonne dans les ambiances désirées. Deux stratégies de composition contrastées, identifiées dans la littérature, ont été déployées, à savoir une composition statique intégrée, destinée à se fondre dans le paysage sonore ambiant, et une composition spatiale oppositionnelle, destinée à émerger et à attirer l'attention à mesure que les utilisateurs se déplacent dans l'espace.
Un total de 700 questionnaires, recueillis auprès des passants avant et pendant l'installation, ont révélé que la place publique était perçue comme plus agréable, plus calme et moins bruyante en présence de l'art sonore. Ces résultats mettent en évidence le potentiel de façonner délibérément les espaces publics à l'aide de l'art sonore. Le travail a été réalisé dans le cadre du partenariat Sounds in the city, qui réunit des chercheurs, des artistes du son, des artisans et des usagers de la ville, afin d'examiner le son urbain dans une perspective nouvelle et axée sur les ressources et de trouver des solutions créatives pour rendre les villes plus saines.

BIOGRAPHY
Catherine Guastavino is an Associate Professor at McGill University in the School of Information Studies, a member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT), and an associate member of the McGill Schulich School of Music. Her research interests include auditory perception and cognition, soundscape, spatial hearing and spatial audio, music psychology and multisensory perception. Valerian Fraisse received his M.Sc in Music Technology (ATIAM) from IRCAM and was a graduate research trainee at McGill in the summer 2019. Simone d'Ambrosio and Etienne Legast are composers from the art collective Audiotopie, specialized in sound art in public spaces. Maryse Lavoie is a noise control officer at Ville de Montreal and a former member of CIRMMT. She received a Ph.D. in Psychoacoustics from Université de Montreal on classical guitar timbre.

Catherine Guastavino est professeure agrégée à l'École d'études de l'information de l'Université McGill, membre du Centre interdisciplinaire de recherche sur les médias musicaux et la technologie (CIRMMT) et membre associée de l'École de musique McGill Schulich. Ses sujets de recherche touchent à la perception et la cognition auditives, le paysage sonore, l'audition spatiale et l'audio spatiale, la psychologie musicale et la perception multisensorielle. Valerian Fraisse a obtenu sa maîtrise de sciences en technologie de la musique (ATIAM) à l'IRCAM et a été stagiaire de recherche à McGill pendant l'été 2019. Simone d'Ambrosio et Etienne Legast sont des compositeurs du collectif d'art Audiotopie, spécialisé dans l'art sonore dans les espaces publics. Maryse Lavoie est agente de contrôle du bruit pour la Ville de Montréal et ancienne membre du CIRMMT. Elle a obtenu un doctorat en psychoacoustique de l'Université de Montréal sur le timbre de guitare classique.


Rob Hamilton (Rensselaer Polytechnic Institute)
Virtual Instrument Design for the 21st Century
La conception d'instruments virtuels pour le 21e siècle
vidéo / video

This talk will describe the design, development and implementation of a series of virtual reality musical instruments named Coretet. Coretet is a virtual reality instrument that explores the translation of performance gesture and mechanic from traditional bowed string instruments into an inherently non-physical implementation. Built using the Unreal Engine 4 and Pure Data, Coretet offers musicians a flexible and articulate musical instrument to play as well as a networked performance environment capable of supporting and presenting a traditional four-member string quartet. This talk discusses the technical implementation of Coretet and explores the musical and performative possibilities enabled through the translation of physical instrument design into virtual reality and realized through the composition Trois Machins de la Grâce Aimante (Coretet no. 1).

Cette présentation décrira la conception, le développement et la mise en œuvre d'une série d'instruments de musique en réalité virtuelle appelée Coretet. Coretet est un instrument de réalité virtuelle qui explore la traduction du geste et de la mécanique de performance des instruments à cordes à archet traditionnels en une mise en œuvre intrinsèquement non physique. Construit à l'aide d'Unreal Engine 4 et de Pure Data, Coretet offre aux musiciens un instrument de musique souple et articulé ainsi qu'un environnement de représentation en réseau capable de soutenir et de présenter un quatuor à cordes traditionnel de quatre membres. Cette conférence traite de la mise en œuvre technique du Coretet et explore les possibilités musicales et performatives rendues possibles par la traduction de la conception d'instruments physiques en réalité virtuelle et réalisées dans la composition Trois Machins de la Grâce Aimante (Coretet n° 1).

BIOGRAPHY
Composer and researcher Rob Hamilton explores the converging spaces between sound, music and interaction. His creative practice includes mixed and virtual-reality performance works built within fully rendered networked game environments, procedural music engines and mobile musical ecosystems. His research focuses on the cognitive implications of sonified musical gesture and motion and the role of perceived space in the creation and enjoyment of sound and music. Dr. Hamilton received his Ph.D. from Stanford University’s Center for Computer Research in Music and Acoustics (CCRMA) and currently serves as an Associate Professor of Music and Media in the Department of Arts at Rensselaer Polytechnic Institute in Troy, NY.

Le compositeur et chercheur Rob Hamilton explore les espaces convergents entre le son, la musique et l'interaction. Sa pratique créative comprend des œuvres d'interprétation en réalité virtuelle et mixte construites dans des environnements de jeu en réseau entièrement rendus, des moteurs de musique procédurale et des écosystèmes musicaux mobiles. Ses recherches portent sur les implications cognitives du geste et du mouvement musical sonifié et sur le rôle de l'espace perçu dans la création et le plaisir du son et de la musique. M. Hamilton est titulaire d'un doctorat du Center for Computer Research in Music and Acoustics (CCRMA) de l'Université Stanford et est actuellement professeur agrégé de musique et de médias au département des arts du Rensselaer Polytechnic Institute à Troy, NY.


Lena Heng and Stephen McAdams (McGill University)
Timbre’s function in perception of affective intents. Can it be learned?
La fonction du timbre dans la perception des intentions affectives. Peut-on l'apprendre ?
vidéo / video

Timbre has been identified by music perception scholars as an important component in the communication of affect in music. While its function as a carrier of perceptually useful information about sound source mechanics has been established, studies of whether and how it functions as a carrier of information for communicating affect in music are still in their infancy. If timbre functions as a carrier of affective content in music, how it is used may be learned differently across different musical traditions. The amount of information timbre carries across different parts of a phrase may also vary according to musical context.
To investigate this, three groups of listeners with different musical training (Chinese musicians, Western musicians, and nonmusicians, n = 30 per group) were recruited for a listening experiment. They were presented with a) phrases and measures, and b) individual notes, of recorded excerpts interpreted with a variety of affective intents by performers on Western and Chinese instruments.
These excerpts were analyzed to determine acoustic aspects that are correlated with timbre characteristics. Analysis revealed consistent use of temporal, spectral, and spectrotemporal attributes in judging affective intent in music, suggesting purposeful use of these properties within the sounds by listeners. Comparison between listeners’ perception across notes and longer segments also revealed differences in perception with increased musical context. How timbre is used for musical communication thus appears to be implicated differently across musical traditions. The amount of importance timbre plays also appears to vary for different positions within a musical phrase.

Le timbre a été identifié par les spécialistes de la perception musicale comme un élément important dans la communication de l'affect en musique. Bien que sa fonction en tant que support d'informations perceptuellement utiles sur la mécanique des sources sonores ait été établie, les études visant à déterminer si et comment il fonctionne en tant que support d'informations pour communiquer l'affect dans la musique n'en sont encore qu'à leurs débuts. Si le timbre fonctionne comme un vecteur de contenu affectif dans la musique, la façon dont il est utilisé peut s'apprendre différemment selon les différentes traditions musicales. La quantité d'informations que le timbre porte sur les différentes parties d'une phrase peut également varier en fonction du contexte musical.
Pour étudier cette question, trois groupes d'auditeurs ayant une formation musicale différente (musiciens chinois, musiciens occidentaux et non musiciens, n = 30 par groupe) ont été recrutés pour une expérience d'écoute. On leur a présenté a) des phrases et des mesures, et b) des notes individuelles, d'extraits enregistrés interprétés avec diverses intentions affectives par des interprètes d'instruments occidentaux et chinois.
Ces extraits ont été analysés pour déterminer les aspects acoustiques qui sont corrélés avec les caractéristiques du timbre. L'analyse a révélé une utilisation constante des attributs temporels, spectraux et spectrotemporels dans l'évaluation de l'intention affective en musique, ce qui suggère une utilisation ciblée de ces propriétés dans les sons par les auditeurs. La comparaison entre les différentes perceptions des auditeurs entre les notes et les segments plus longs a également révélé des différences de perception selon le contexte musical. La manière dont le timbre est utilisé pour la communication musicale semble donc être impliquée différemment selon les traditions musicales. L'importance des jeux de timbre semble également varier selon les différentes positions d'une phrase musicale.

BIOGRAPHY
Lena is currently doing an interdisciplinary PhD in the Music Perception and Cognition Lab at McGill University Canada, under the supervision of Prof. Stephen McAdams. Their research interests are in the area of timbre perception, music hermeneutics, cognitive representation, and emotion perception in music. As a member of Ding Yi Music Company and an adjunct lecturer in the Nanyang Academy of Fine Arts, they are particularly keen on integrating their research interests with performance, music understanding, and listening. Their work on this aspect has earned them the Research Alive award from McGill Schulich School of Music in 2018/19.
Prior to their graduate studies, Lena obtained a B.Mus (Hons.) from the Nanyang Academy of Fine Arts under the tutelage of Mr Wong Sun Tat, and a B.Soc.Sci (Hons.) in Psychology from the National University of Singapore. In 2016, Lena was awarded the NAC - Graduate Arts Scholarship, as well as the McGill University Graduate Excellence Fellowship and McGill University Student Excellence Award for their studies at McGill University.
Conference presentations: SMPC 2019; ICTM 2016.
Book chapter: Negotiations within Singapore’s Cultural Sphere: Case Studies (in print).

Lena prépare actuellement un doctorat interdisciplinaire au Laboratoire de perception et de cognition de la musique de l'Université McGill, sous la supervision du professeur Stephen McAdams. Leurs intérêts de recherche portent sur la perception du timbre, l'herméneutique musicale, la représentation cognitive et la perception des émotions en musique. En tant que membre de la Ding Yi Music Company et professeur auxiliaire à l'Académie des Beaux-Arts de Nanyang, ils sont particulièrement soucieux d'intégrer leurs intérêts de recherche à la performance, la compréhension musicale et l'écoute. Leur travail sur cet aspect leur a valu le prix Research Alive de l'École de musique Schulich de McGill en 2018/19.
Avant leurs études supérieures, Lena a obtenu un B.Mus (avec mention) de l'Académie des Beaux-Arts de Nanyang sous la direction de M. Wong Sun Tat, et un B.Soc.Sci (avec mention) en psychologie de l'Université nationale de Singapour. En 2016, Lena a reçu la Bourse d'études supérieures en arts du CNA ainsi que la Bourse d'excellence aux cycles supérieurs de l'Université McGill et le Prix d'excellence aux étudiants de l'Université McGill pour leurs études à l'Université McGill.
Présentations à la conférence : SMPC 2019 ; ICTM 2016.
Chapitre de livre : Négociations au sein de la sphère culturelle de Singapour : Études de cas (en version imprimée).


Erica Y. Huynh (McGill University), Joël Bensoam (IRCAM), and Stephen McAdams (McGill University)
Bowed plates and blown strings: Odd combinations of excitation methods and resonance structures impact perception
Plaques courbées et cordes soufflées : Combinaisons étranges de méthodes d’excitation et de la perception de l’impact des structures
vidéo / video

How do our mental models limit our perception of sounds in the physical world? We have evaluated the perception of sounds synthesized by one of the most convincing methods: physical modeling. We used Modalys, a digital physical modeling platform, to simulate interactions between two classes of mechanical properties of musical instruments: excitation methods and resonance structures. The excitation method sets into vibration the resonance structure, which acts as a filter that amplifies, suppresses, and radiates sound components. We simulated and paired three excitation methods (bowing, blowing, striking) and three resonance structures (string, air column, plate), forming nine excitation-resonator interactions. These interactions were either typical of acoustic musical instruments (e.g., bowed string) or atypical (e.g., blown plate). Listeners rated the extent to which the stimuli resembled bowing, blowing, and striking excitations (Experiment 1), or the extent to which they resembled string, air column, and plate resonators (Experiment 2). They assigned the highest resemblance ratings to: (1) excitations that actually produced the sound and (2) resonators that actually produced the sound. These effects were strongest for stimuli representing typical excitation-resonator interactions. However, listeners confused different excitations or resonators for one another for stimuli representing atypical interactions. We address how perceptual data can inform physical modeling approaches, given that Modalys effectively conveyed excitations and resonators of typical but not atypical interactions. Our findings emphasize that our mental models for how musical instruments are played are very specific and limited to previous exposure and perceived mechanical plausibility of excitation-resonator interactions.

Comment nos modèles mentaux limitent-ils notre perception des sons dans le monde physique ? Nous avons évalué la perception des sons synthétisés par l'une des méthodes les plus convaincantes : la modélisation physique. Nous avons utilisé Modalys, une plateforme de modélisation physique numérique, pour simuler les interactions entre deux classes de propriétés mécaniques des instruments de musique : les méthodes d'excitation et les structures de résonance. La méthode d'excitation met en vibration la structure de résonance, qui agit comme un filtre qui amplifie, supprime et irradie les composantes sonores. Nous avons simulé et couplé trois méthodes d'excitation (archet, soufflage, frappe) et trois structures de résonance (corde, colonne d'air, plaque), formant ainsi neuf interactions excitation-résonateur.
Ces interactions étaient soit typiques des instruments de musique acoustiques (p. ex., cordes à archet), soit atypiques (p. ex., plaque soufflée). Les auditeurs ont évalué la mesure dans laquelle les stimuli ressemblaient à des excitations de type archet, soufflage et frappe (expérience 1), ou la mesure dans laquelle ils ressemblaient à des résonateurs à cordes, à colonne d'air et à plaque (expérience 2). Ils ont attribué les cotes de ressemblance les plus élevées : (1) aux excitations qui ont réellement produit le son et (2) aux résonateurs qui ont réellement produit le son. Ces effets étaient les plus forts pour les stimuli représentant des interactions excitation-résonateur typiques. Cependant, les auditeurs ont confondu différentes excitations ou différents résonateurs les uns pour les autres pour des stimuli représentant des interactions atypiques. Nous examinons comment les données perceptuelles peuvent informer les approches de modélisation physique, étant donné que Modalys transmettait efficacement les excitations et les résonateurs d'interactions typiques mais non atypiques. Nos résultats soulignent que nos modèles mentaux pour la façon dont les instruments de musique sont joués sont très spécifiques et limités à l'exposition antérieure et à la plausibilité mécanique perçue des interactions excitation-résonateur.

BIOGRAPHY
Erica Huynh is a Music Technology (Interdisciplinary) student at the Schulich School of Music of McGill University. Her dissertation will continue the research conducted during her Master's at the Music Perception and Cognition Lab, under the supervision of Prof. Stephen McAdams, and in collaboration with IRCAM's Joël Bensoam. Her research involves understanding how novel stimuli become incorporated into listeners' mental models of sounds and how action categories and object categories are shaped by those mental models.

Erica Huynh est étudiante en technologie musicale (interdisciplinaire) à l'École de musique Schulich de l'Université McGill. Sa thèse poursuivra la recherche menée durant sa maîtrise au Laboratoire de perception et de cognition musicale, sous la direction du professeur Stephen McAdams, et en collaboration avec Joël Bensoam de l'IRCAM. Ses recherches visent à comprendre comment les nouveaux stimuli sont incorporés dans les modèles mentaux des sons des auditeurs et comment les catégories d'action et les catégories d'objets sont façonnées par ces modèles mentaux.


Jack Kelly (McGill University)
SPAT tools for presence research in immersive music reproduction
Outils SPAT pour la recherche de présence dans la reproduction musicale immersive
vidéo / video

Immersive media has become more and more familiar to the average consumer. However, techniques and technologies used to develop immersive media content are still in their infancies. This underscores the need for tools which enable artists and engineers to create compelling 3D content is being increasingly felt. One of the major challenges for content creators is to produce auditory experiences for the listener to feel a sense of ‘being there’ in the virtual environment. To shed some light on this question, investigations into the listener’s sensation of presence in three-dimensional acoustic music reproduction are underway. Exploratory research has been conducted to highlight which aspects of the relationship between direct sound and reverberation have the greatest influence on the listeners’ sensation of presence. In order to conduct this research, a tool was required to create and manipulate immersive reverberation in real-time. The development of this tool has been made possible by a collection of objects from IRCAM’s SPAT toolkit, implemented in Max MSP. This presentation will explore how SPAT5 / SPAT Revolution is being used for presence research into immersive music. Topics will include generating and spatializing early reflections, 22 channel impulse response convolution, spatialization of channel-based microphone arrays, and binauralization.

Les médias immersifs sont devenus de plus en plus familiers au consommateur moyen. Cependant, les techniques et technologies utilisées pour développer le contenu des médias immersifs n'en sont qu'à leurs débuts. Cela souligne la nécessité de disposer d'outils permettant aux artistes et aux ingénieurs de créer des contenus 3D attrayants, qui se fait de plus en plus sentir. L'un des principaux défis pour les créateurs de contenu est de produire des expériences auditives permettant à l'auditeur de ressentir un sentiment de "présence" dans l'environnement virtuel. Pour éclairer cette question, des recherches sur la sensation de présence de l'auditeur dans la reproduction musicale acoustique tridimensionnelle sont en cours. Des recherches exploratoires ont été menées pour mettre en évidence les aspects de la relation entre le son direct et la réverbération qui ont la plus grande influence sur la sensation de présence de l'auditeur. Afin de mener cette recherche, un outil a été nécessaire pour créer et manipuler la réverbération immersive en temps réel. Le développement de cet outil a été rendu possible grâce à une collection d'objets issus de la boîte à outils SPAT de l'IRCAM, mise en œuvre dans Max MSP. Cette présentation explorera comment SPAT5 / SPAT Revolution est utilisé pour la recherche de présence dans la musique immersive. Les sujets abordés comprendront la génération et la spatialisation des premières réflexions, la convolution de la réponse impulsionnelle sur 22 canaux, la spatialisation des réseaux de microphones basés sur les canaux et la binauralisation.

BIOGRAPHY
Jack Kelly is a Ph.D. candidate and researcher in the sound recording area of the department of music research at McGill University. His research focuses on presence as a perceptual attribute in immersive music reproduction. Using a 22-channel convolution reverb engine, paired with a set of three-dimensional, anechoic recordings of acoustic instruments, his work aims to shed light on the interactions between room and sound-source, in an effort to gain a deeper understanding of the factors that form the sensation of ‘being there’ in virtual musical experiences. Jack has been an active classical recording engineer since 2013. He received an M.mus in sound recording (Tonmeister program) from McGill (2016). His interest in the field grew from his background in composition and performance, developed during his time at Concordia University where he received a BFA in Electroacoustic Studies (2012).

Jack Kelly est doctorant au sein du département de recherche musicale de l’Université McGill, dans le domaine de l'enregistrement sonore. Ses recherches portent sur la présence comme attribut perceptuel dans la reproduction musicale immersive. À l'aide d'un logiciel de réverbération à convolution à 22 canaux, et un ensemble d'enregistrements anéchoïques tridimensionnels d'instruments acoustiques, son travail vise à mieux comprendre les interactions entre la reverberation et la source-sonore, dans le but d'acquérir une compréhension plus approfondie des facteurs qui forment la sensation «d'être là» dans les expériences musicales virtuelles. Jack est un ingénieur de l'enregistrement de la musique classique, actif depuis 2013. Il a reçu un M.mus en enregistrement sonore (programme Tonmeister) de McGill (2016). Son intérêt pour ce domaine est né de sa formation en composition et en performance, développée pendant son baccalauréat en études électroacoustiques (2012) à l'Université Concordia.


Han-Na Kim (University of Toronto)
Timbre Saturation for Chamber Orchestra
Saturation de timbre pour orchestre de chambre
vidéo / video, partition / score

My presentation will be about a new piece for chamber orchestra that I wrote as a dissertation for my doctoral degree at the University of Toronto. The piece specifically considers economy attained through efficient uses of the instruments. The work will be for a smaller number of players than the standard orchestra. Typically, when it comes to scoring chord progressions for a large orchestra, two methods are common: one is doubling, and the other is harmonizing. My composition project begins by questioning whether those common practices cause any sound overload. Furthermore, what if a composer eliminates any melodic/intervallic elements that could be thought of as ‘wastefulness’, such as doubling? By seeking to create the most economic orchestration, the goal of this project is to suggest a solution to optimize the orchestral effects and colors with a limited number of instruments. In addition, my dissertation work will rely on the minimum number of instruments for a large ensemble piece to be as effective as a full-sized orchestra, particularly focusing on the use of colors (timbre). The piece will require twenty-eight players: 1st flute, 2nd flute (+ picc), english horn, 1st clarinet in Bb, 2nd clarinet in Bb, 3rd clarinet in Bb (+ bass cl), tenor saxophone, bassoon, 1st horn, 2nd horn, trumpet in C, 1st trombone, 2nd trombone, mandolin, piano (+ celeste), harp, 1st percussion, 2nd percussion, timpani and strings (minimum 2-2-2-2-1, maximum 8-8-6-4-3). The piece will have three movements. The performing duration will be approximately fifteen minutes.

Ma présentation portera sur une nouvelle pièce pour orchestre de chambre que j'ai écrite comme thèse pour mon doctorat à l'Université de Toronto. Cette pièce porte spécifiquement sur l'économie réalisée grâce à l'utilisation efficace des instruments. L'oeuvre s'adresse à un plus petit nombre de musiciens que l'orchestre standard. Habituellement, lorsqu'il s'agit de marquer des progressions d'accords pour un grand orchestre, deux méthodes sont courantes : l'une consiste à doubler et l'autre à harmoniser. Mon projet de composition s’interroge sur si ces pratiques courantes ne causent pas une surcharge sonore. De plus, que se passe-t-il si un compositeur élimine des éléments mélodiques/intervalles qui pourraient être considérés comme du " gaspillage ", comme le doublage ? En cherchant à créer l'orchestration la plus économique, le but de ce projet est de proposer une solution pour optimiser les effets et les couleurs de l'orchestre avec un nombre limité d'instruments. De plus, mon travail de thèse s'appuiera sur le nombre minimum d'instruments pour qu'une pièce de grand ensemble soit aussi efficace qu'un orchestre de taille normale, en mettant l'accent sur l'utilisation des couleurs (timbre). La pièce nécessitera vingt-huit musiciens : 1ère flûte, 2ème flûte (+ picc), cor anglais, 1ère clarinette en Sib, 2ème clarinette en Sib, 3ème clarinette en Sib (+ cl basse), saxophone ténor, basson, 1er cor, 2ème cor, trompette en Do, 1er trombone, 2ème trombone, piano (+ céleste), harpe, 1ère percussion, 2ème percussion, timbales et cordes (minimum 2-2-2-2-1, maximum 8-8-6-4-3). La pièce comprendra trois mouvements. La durée de l'interprétation sera d'environ quinze minutes.

BIOGRAPHY
Hailed as “truly inspired” by Ludwig van Toronto for her composition work in collaboration with the University of Toronto Opera Division in 2018, composer Hanna Kim (b. 1984) encompasses a wide range of traditional, neo-romantic, minimalistic, and improvisational styles for her compositional work. She is the recipient of several awards, including the 2019 Lothar Klein Memorial Fellowship in Composition, the 2019 St. James Cathedral Composition Competition, the 2014 Miriam Silcox Scholarship, and the 2013 Joseph Dorfman Composition Competition (Germany). Ms. Kim has won numerous score calls, and has been asked to compose new works for concert performances across a variety of styles. Over the period of 2008 to 2012, Kim wrote several piano instruction books for children, at the publication request of KMS Music Publication (also known as Eumak Segye, in South Korea). Between August 2015 and 2016, Kim was offered a 1 year visiting scholar-in-residence at Penn State University, Pennsylvania. While at the University of Toronto, Ms. Kim was appointed as composer-in-residence for the gamUT Ensemble during the academic year of 2017 – 2018, and for the Guitar Orchestra from 2018 – 2019. A native of South Korea, Ms. Kim is currently working toward her doctoral degree (DMA) at the University of Toronto, Canada. In addition to her passion for being a scholar of music, Kim is also an active church musician. She currently serves as the Minister of Music at the Calvary Baptist Church in Toronto.

Saluée comme " véritablement inspirée " par Ludwig van Toronto pour son travail de composition en collaboration avec la University of Toronto Opera Division en 2018, la compositrice Hanna Kim (née en 1984) englobe un large éventail de styles traditionnels, néo-romantiques, minimalistes et d'improvisation pour son travail de composition. Elle a reçu plusieurs prix, dont la bourse commémorative Lothar Klein en composition de 2019, le concours de composition de la cathédrale St. James de 2019, la bourse Miriam Silcox de 2014 et le concours de composition Joseph Dorfman de 2013 (Allemagne). Mme Kim a remporté de nombreux appels de partitions, et s’est vu demandé la composition de nouvelles œuvres pour des concerts de différents styles. De 2008 à 2012, Mme Kim a écrit plusieurs livres d'instruction de piano pour enfants, à la demande de KMS Music Publication (aussi connu sous le nom de Eumak Segye, en Corée du Sud). Entre août 2015 et 2016, Kim s'est vu offrir un poste de chercheur invité en résidence d'un an à la Penn State University, en Pennsylvanie. Pendant son séjour à l'Université de Toronto, Mme Kim a été nommée compositrice en résidence pour l'ensemble gamUT au cours de l'année scolaire 2017-2018, et pour l'orchestre de guitare de 2018 à 2019. Native de la Corée du Sud, Mme Kim travaille actuellement à l'obtention d'un doctorat (DMA) à l'Université de Toronto, au Canada. En plus de sa passion pour la musique, Kim est également une musicienne d'église active. Elle est actuellement Ministre de la Musique à l'Église baptiste Calvary de Toronto.


Ludovic Landolt
Musique Éternelle - Bourdon et occurrences harmoniques des cloches
Eternel Music - Bourdon and harmonic occurrences of bells
vidéo / video

Il y a deux ans, au détour d’une ballade et par hasard, j’ai assisté à un événement sonore qui marqua profondément mon travail. Au rez-de-chaussée du beffroi d’une église de la City de Londres, un groupe de sonneurs y activait simultanément un ensemble de cloches de manière à créer des variations et des séquences musicales appelées Change ringing. Si cette façon de faire sonner m’a immédiatement séduite, elle m’a ouvert à un champ d’études aussi intrigant que délicieusement désuet : la campagnologie, dédiée à l’étude des cloches et de leurs sonorités. J’ai ainsi développé beaucoup de sympathie pour ces instruments que j’apprécie écouter en me rappelant la fusion des métaux à l’origine de leur résonance, en somme une union surnaturelle de forces semblable à la greffe de végétaux. De cette expérience esthétique, leurs sonneries relèvent d’une culture sensible et invitent celles et ceux qui y prêtent attention à expérimenter une forme d’écoute particulière. Je souhaite ainsi évoquer la qualité de cette écoute et les occurrences de ces instruments, passerelles entre mondes du visible et de l’invisible propre à une culture acoustique locale. La polyphonie et la tonalité de ces instruments sont orchestrées selon une histoire vocale où la portée des sons dépasse davantage celle de la voix humaine. En dépassant leurs usages sacrés, les cloches se révèlent être avant tout des objets sonnants et musicaux, spatialisées à la fois dans le temps et l’espace où leurs sonorités se diffusent.

Two years ago, while taking a walk, I fortuitously came across a sound event that would deeply mark my work. On the ground floor of a ringing chamber in a City’s church in London, a group of bell ringers simultaneously activated a set of bells to create variations and musical sequences with an unexpected method called Change ringing. While this way of ringing was immediately appealing to me, it opened me to a field of study as intriguing as it is delightfully old-fashioned: campagnology, dedicated to the study of bells and their sounds. Since I have developed much sympathy for these instruments which I like listening to, remembering the fusion of metals at the origin of their own resonance, a supernatural union similar to the grafting of plants. From this aesthetic experience, their ringing is part of a sensitive culture and invites those who pay attention to experience a particular form of listening. This is why I would like to speak about the quality of this listening and the occurrences of these instruments, gates between the visible and the invisible worlds, specific to each acoustic culture. The polyphony and the tonality of these instruments are orchestrated according to a vocal story where the range of sounds exceeds that of the human voice. By going beyond their sacred uses, bells turn out to be above all sounding and musical objects, spatialized both in time and space where their sounds are broadcasted.

BIOGRAPHY
Né en 1993, Ludovic Landolt est un artiste franco-suisse travaillant entre Metz et Paris. Il a exposé au Point Commun (Annecy), à la Galerie Tiret Point Tiret (Paris), à in.plano (Paris), au Palais de Tokyo et a présenté son travail au BBB (Toulouse). Joueur autodidacte de luth et de sitar son travail invoque une vision contemplative empruntée à la musique, à la littérature et à la poésie.Ludovic Landolt propose d’écouter plutôt qu’entendre, il conçoit des sculptures et des instruments sonores dont les modalités de jeu sont activées lors de performances ou de happening, en impliquant des protocoles expérimentaux. Il propose concrètement de questionner le sens et l’usage des sons. Il pratique le jeu de go et la méditation zazen,comme des outils épistémologiques accordés à son langage visuel et sonore.
Il est actuellement résident du laboratoire de recherche Locus Sonus au sein de l’École supérieure d’art d’Aix-en-Provence et l’Institut de recherches et d’études sur les mondes arabes et musulmans (Aix-Marseille Université/CNRS).

Born in 1993 Ludovic Landolt is a Franco-Swiss artist who currently works between Metz and Paris. He exhibited at Point Commun (Annecy), Tiret Point Tiret Gallery (Paris), in.plano (Paris) and the Palais de Tokyo and presented his work at the art center BBB (Toulouse). As a self-taught lute and sitar player, Landolt's work invokes a contemplative vision influenced by music, literature and poetry. He advances deep listening rather than merely hearing, and designs sculptures and sound instruments whose playing methods are activated during performances or happenings, according to experimental protocols. Concretely, he proposes to question the meaning and the use of sounds. He practices the strategy game Go, as well as Zazen meditation, both as epistemological tools granted to his sonic and visual language.
He is currently a resident of the Locus Sonus research laboratory within the Aix-en-Provence Art School (ESAAIX) and the Institute for Research and Studies on the Arab and Muslim Worlds (Aix-Marseille University / CNRS).


Dongryul Lee (University of Illinois at Urbana-Champaign)
A Thousand Carillons: Acoustical Implementation of Bell Spectra Using the Finite Element Method and Its Compositional Realization
Un millier de carillons : Implémentation acoustique de Bell Spectra à l’aide de la méthode des éléments finis et sa réalisation compositionnelle
vidéo / video

I will present an implementation of virtual bells, based on the Finite Element Method from engineering physics. The FEM has been widely used in engineering analysis and acoustics, especially for the creation and optimization of carillons. Beginning with a brief introduction of spectral music inspired by bell sounds, I will introduce the theoretical basis of the FEM and its application to the isoparametric 2-D elements, including the Principle of Virtual Work and FE shape functions. The creation of 3-D virtual bell geometries with structural analysis, and their optimization process will follow, with acoustical background on campanology. For my computational realizations, I follow the groundbreaking research of Schoof and Roozen-Kroon; their research formed the basis on which the first prototype of the major-third bell was designed and cast. A brief introduction of just tuning and 72 TET within the threshold of 5 cents will be analyzed, for the creation of spectral profiles of optimal bell tone-colors. The presentation will be accompanied with original SuperCollider examples and images of bell geometries created in COMSOL multiphysics, to visualize and sonify the characteristics of bells and their sounds.

Je présenterai une implémentation de cloches virtuelles, basée sur la Méthode des Eléments Finis de l'ingénierie physique. La MEF a été largement utilisée en analyse d'ingénierie et en acoustique, en particulier pour la création et l'optimisation de carillons. En commençant par une brève introduction de la musique spectrale inspirée des sons de cloches, je présenterai les bases théoriques de la MEF et son application aux éléments isoparamétriques 2-D, y compris le Principe du Travail Virtuel et les fonctions de forme de la MEF. La création de géométries virtuelles 3D de cloches avec analyse structurelle, et leur processus d'optimisation suivront, avec un fond acoustique sur la campanologie. Pour mes réalisations informatiques, je suis les recherches révolutionnaires de Schoof et Roozen-Kroon ; leurs recherches ont constitué la base sur laquelle le premier prototype de la troisième cloche principale a été conçu et coulé. Une brève introduction de l'accordage juste et du 72 TET dans le seuil de 5 cents sera analysée, pour la création de profils spectraux de couleurs optimales de la tonalité de la cloche. La présentation sera accompagnée d'exemples originaux de SuperCollider et d'images de géométries de cloches créées en multiphysique COMSOL, pour visualiser et sonifier les caractéristiques des cloches et de leurs sons.

BIOGRAPHY
Dongryul Lee’s music is deeply oriented around acoustical phenomena and virtuosic classical performance practice. He seeks to write music that creates profound aural experiences with both dramaturgy and pathos. His compositions have been performed by ensembles such as the Avanti!, Contemporanea, Jupiter, MIVOS, Paramirabo, Callithumpian Consort, GMCL Lisboa, S.E.M., Wellesley Conference Ensemble, Illinois Modern Ensemble. He was awarded the third prize in the first Bartók World Competition for his piece, Le Tombeau de Harvey, which had its world premiere at the Liszt Academy in Budapest, November 2018. Other recent honors include the Presser Foundation Award, which will support the recording and performance of Unending Rose with Kairos quartett (Berlin, May 2020); the Special Prize Piero Pezzé in the Twelfth International Composition Competition Città di Udine (Italy, 2018); and Second Prize in the 3rd International Composition Competition GMCL (Portugal, 2017). His Quasi una Macchina was performed by the S.E.M. Ensemble (New York City), the Callithumpian Consort (Boston), the GMCL (Lisbon); his Parastrata has been performed in four different cities in Europe and North America.
Lee holds degrees in computer science and music composition from Yonsei University and the Eastman School respectively. His composition teachers include Heinrich Taube, Stephen Taylor, Reynold Tharp, Erin Gee, and Carlos Sanchez-Gutierrez. He has attended master classes led by Jukka Tiensuu, Hans Abrahamsen, Unsuk Chin, Oliver Knussen, Julian Anderson, and Ben Johnston; and seminars by Tristan Murail, Mario Davidovsky, and Helmut Lachenmann. Lee serves as the 2020-21 Postdoctoral Researcher for the University of Chicago's Center for Contemporary Composition. He earned a DMA degree from the University of Illinois at Urbana-Champaign. Lee’s upcoming projects include new works for Grossman Ensemble (Chicago), Axiom Quintet (Chicago), Miranda Cuckson (New York), and the Callithumpian Consort (Boston) to be premiered in 2021.

La musique de Dongryul Lee est profondément orientée autour des phénomènes acoustiques et de la pratique virtuose de l'interprétation classique. Il cherche à écrire une musique qui crée des expériences auditives profondes avec dramaturgie et pathos. Ses compositions ont été interprétées par des ensembles tels que l'Avanti !, Contemporanea, Jupiter, MIVOS, Paramirabo, Callithumpian Consort, GMCL Lisboa, S.E.M., Wellesley Conference Ensemble, Illinois Modern Ensemble. Il a obtenu le troisième prix du premier Concours mondial Bartók pour sa pièce Le Tombeau de Harvey, dont la première mondiale a eu lieu à l'Académie Liszt de Budapest en novembre 2018. Parmi les autres distinctions récentes, citons le Presser Foundation Award, qui soutiendra l'enregistrement et l'interprétation de Unending Rose avec le Kairos quartett (Berlin, mai 2020) ; le Prix spécial Piero Pezzé au douzième Concours international de composition Città di Udine (Italie, 2018) ; et le deuxième prix au troisième Concours international de composition GMCL (Portugal, 2017). Sa Quasi una Macchina a été interprétée par l'Ensemble S.E.M. (New York), le Callithumpian Consort (Boston), le GMCL (Lisbonne) ; sa Parastrata a été jouée dans quatre villes différentes en Europe et en Amérique du Nord.
Lee est diplômé en informatique et en composition musicale, respectivement de l'université Yonsei et de l'école Eastman. Ses professeurs de composition comprennent Heinrich Taube, Stephen Taylor, Reynold Tharp, Erin Gee et Carlos Sanchez-Gutierrez. Il a suivi des master classes dirigées par Jukka Tiensuu, Hans Abrahamsen, Unsuk Chin, Oliver Knussen, Julian Anderson et Ben Johnston, ainsi que des séminaires de Tristan Murail, Mario Davidovsky et Helmut Lachenmann. Lee est le chercheur postdoctoral 2020-21 du Center for Contemporary Composition de l'Université de Chicago. Il a obtenu un diplôme de DMA à l'université de l'Illinois à Urbana-Champaign. Les projets à venir de Lee comprennent de nouvelles œuvres pour le Grossman Ensemble (Chicago), l'Axiom Quintet (Chicago), Miranda Cuckson (New York) et le Callithumpian Consort (Boston) qui seront créées en 2021.


Stephen McAdams, Meghan Goodchild, Alistair Russell, Beatrice Lopez, Kit Soden, Er Jun Li, Alfa Barri, Shi Tong Li, and Félix Baril (McGill University)
The Orchestration Analysis and Research Database (Orchard)
La base de données d'analyse et de recherche sur l'orchestration (Orchard)
vidéo / video

To provide a tool for researching the role of auditory grouping effects in orchestration practice and thereby the role of timbre as a structuring force in music, a first-of-its-kind online database was created, and an analysis taxonomy and methodology were established. The taxonomy includes grouping processes of three kinds: concurrent, sequential and segmental. These play a role in sonic blends that give rise to new timbres through perceptual fusion, voice separation on the basis of timbre, integration of multiple instrumental lines into surface textures, the formation of orchestral layers of varying prominence based on timbral salience, contrasts based on changes in instrumentation and register, and progressive orchestration in larger-scale gestures. The taxonomy served in the creation of the data model for the database. Scores of 85 orchestral movements from Haydn to Vaughan Williams were analyzed while listening to commercial recordings by experts in teams of two who analyzed the scores in terms of the taxonomy individually and then confronted their results before entering them into the database. A query builder allows for the construction of hierarchical queries on different levels of the taxonomy, and to specify composer, piece, movement, and instrumentation. Results of the queries display the annotated score at the appropriate page and provide a sound clip of the corresponding measures from the commercial recording used in the combined score/aural analysis. The database has proved useful in exploration of the diversity of each orchestral effect and has the potential to be used for data mining and machine learning for knowledge discovery.

Afin de fournir un outil de recherche sur le rôle des effets de groupement auditif dans la pratique d'orchestration et sur le rôle du timbre en tant que force structurante de la musique, une base de données en ligne unique en son genre a été créée et une taxinomie et une méthodologie d'analyse ont été établies. La taxonomie comprend des processus de groupement de trois types : simultané, séquentiel et segmental. Ceux-ci jouent un rôle dans les mélanges sonores qui donnent naissance à de nouveaux timbres par la fusion perceptive, la séparation des voix sur la base du timbre, l’intégration de multiples lignes instrumentales dans des textures de surface, la formation de couches de proéminence variable sur la base de l'instrumentation et le registre, et l'orchestration progressive dans les gestes à plus grande échelle. La taxinomie a servi à la création du modèle de données pour la base de données. Des partitions de 85 mouvements orchestraux allant de Haydn à Vaughan Williams ont été analysées, tout en écoutant des enregistrements commerciaux, par des experts en équipes de deux qui analysaient les partitions individuellement, puis confrontaient leurs résultats avant de les entrer dans la base de données. L'utilisateur peut construire des requêtes hiérarchiques à différents niveaux de la taxinomie, plus le compositeur, la pièce, le mouvement et l'instrumentation. Les résultats des requêtes affichent la partition annotée sur la page appropriée et fournissent un extrait sonore des mesures correspondantes de l'enregistrement commercial utilisé dans l'analyse. La base de données s'est avérée utile pour explorer la diversité de chaque effet orchestral et pourrait être utilisée pour la fouille de données et l'apprentissage par machine pour la découverte de connaissances.

BIOGRAPHY
Stephen McAdams studied music composition and theory with Julia Hansen at De Anza College in California (1971-1973) before entering the realm of perceptual psychology (BSc in Psychology, McGill University, 1977; PhD in Hearing and Speech Sciences, Stanford University, 1984). He also studied electronic music with alcides lanza and Edgar Valcárcel at McGill University in 1975-1976. In 1986, he founded the Music Perception and Cognition team at the world-renowned music research centre IRCAM-Centre Pompidou in Paris. While there he organized the first Music and the Cognitive Sciences conference in 1988, which subsequently gave rise to the three international societies dedicated to music perception and cognition, as well as the International Conference on Music Perception and Cognition. He was Research Scientist and then Senior Research Scientist in the French Centre National de la Recherche Scientifique (CNRS) from 1989 to 2004. He took up residence at McGill University in 2004, where he is Professor and Canada Research Chair in Music Perception and Cognition. He directed the Centre for Interdisciplinary Research in Music, Media and Technology (CIRMMT) in the Schulich School of Music from 2004 to 2009. His research interests include multimodal scene analysis, musical timbre perception, sound source perception, and the cognitive and affective dynamics of musical listening. He is currently working on a psychological foundation for a theory of orchestration.

Stephen McAdams a étudié la composition et la théorie de la musique avec Julia Hansen au De Anza College en Californie (1971-1973) avant de se tourner vers le domaine de la psychologie de la perception (BSc en psychologie, Université McGill, 1977; PhD en sciences de l'audition et de la parole, Université Stanford, 1984). Il a également étudié la musique électronique avec alcides lanza et Edgar Valcárcel à l'Université McGill (1975-1976). En 1986 il a fondé l'équipe Perception et cognition musicales à l'Ircam, un institut de recherche musicale de renommée internationale à Paris. Il a organisé le premier congrès sur la musique et les sciences cognitives à l'Ircam en 1988, ce qui a donné naissance au trois sociétés savantes internationales dédiées à la perception et la cognition musicales. Il était Chargé de Recherche et puis Directeur de Recherche au CNRS en France de 1989 à 2004. Il s'est installé à l'Université McGill en 2004 où il est Professeur et Chaire de recherche du Canada en Perception et cognition musicales. Il a dirigé le Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT) à l'Ecole de musique Schulich de 2004 à 2009. Ses problématiques de recherche comprennent l'analyse de scènes multimodale, la perception du timbre musical, la perception des sources sonores et la dynamique cognitive et affective de l'écoute musicale.


Landon Morrison (Harvard University)
Computer-Assisted Orchestration, Format Theory, and Constructions of Timbre in New Media Culture
Orchestration assistée par ordinateur, théorie des formats et constructions du timbre dans la culture des nouveaux médias
vidéo / video, texte / text

In a multi-authored paper unveiling Jonathan Harvey’s Speakings (2008), Gilbert Nouno et al. document the results of a collaborative IRCAM project driven by the “artistic aim of making an orchestra speak through computer music processes” (2009). The ensuing music dramatizes this aim, depicting an audible program where the orchestra progresses through stages of baby-like “babbling,” adult “chatter,” and finally, “ritual language” in the form of a Tibetan mantra. Turning this narrative on its head, my paper takes Speakings as a point of departure for a genealogical analysis of computer-assisted orchestration techniques, showing how, in order to make an orchestra speak, it was first necessary to make software listen.
Through a close examination of archival documents and “e-sketches,” I follow Harvey’s transition from a hybrid software setup (Melodyne and a custom partial-tracking program) to the newly-developed Orchidée application (Carpentier and Bresson 2010), which notably uses music information retrieval (MIR) methods. I frame this shift in relation to format theory (Sterne 2012), showing how categories used to encode sound files with audio descriptors of low-level timbral attributes (spectral, temporal, and perceptual) are themselves contingent on a number of factors, including: a) sedimented layers of psychoacoustics research grounded in the metrics of timbre similarity (Wessel 1979); b) a delegation of this knowledge to software tools at IRCAM, which one finds already with the implementation of Terhardt’s algorithm for pitch salience in the IANA program (Terhardt 1982); and c) the wider network of institutional negotiations surrounding the establishment of standardized file formats like the MPEG-7 protocol (Peeters 2004).

Dans un article de Jonathan Harvey's Speakings (2008), Gilbert Nouno et al. documentent les résultats d'un projet collaboratif de l'Ircam mené par " l'objectif artistique de faire parler un orchestre à travers des processus informatiques musicaux" (2009). La musique qui s'ensuit met en scène cet objectif, dépeignant un programme audible où l'orchestre progresse à travers les étapes du "babillage" de bébé, du "bavardage" des adultes et, finalement, du "langage rituel" sous la forme d'un mantra tibétain. Retournant ce récit, mon article prend Speakings comme point de départ pour une analyse généalogique des techniques d'orchestration assistée par ordinateur, montrant comment, pour faire parler un orchestre, il fallait d'abord faire écouter un logiciel.
Par un examen attentif des documents d'archives et des "e-sketches", je suis la transition de Harvey d'une configuration logicielle hybride (Melodyne et un programme de suivi partiel personnalisé) vers la nouvelle application Orchidée (Carpentier et Bresson 2010), qui utilise notamment des méthodes de recherche d'information musicale (MIR). J'encadre ce changement par rapport à la théorie du format (Sterne 2012), en montrant comment les catégories utilisées pour coder les fichiers sonores avec des descripteurs audio des attributs timbraux de bas niveau (spectral, temporel et perceptuel) dépendent elles-mêmes d'un certain nombre de facteurs, notamment : a) des couches sédimentaires de recherche en psychoacoustique fondées sur les mesures de similitude des timbres (Wessel 1979) ; b) une délégation de ces connaissances aux outils logiciels de l'Ircam, que l'on retrouve déjà avec l'application de l'algorithme de Terhardt dans le programme IANA (Terhardt 1982) ; et c) le réseau élargi des négociations institutionnelles entourant la création de formats de fichiers normalisés comme le protocole MPEG-7 (Peeters 2004).

BIOGRAPHY
Landon Morrison is a College Fellow at Harvard University, where he recently began teaching after completing his PhD in music theory at the Schulich School of Music of McGill University in Montreal. His dissertation, titled “Sounds, Signals, Signs: Transductive Currents in Post-Spectral Music at IRCAM,” examines the relationship between contemporary compositional practices, technological development, and psychoacoustics within the context of post-spectral music created at the Parisian Institut de Recherche et Coordination Acoustique/Musique (IRCAM). More broadly, his research aims to draw music theory and media studies into an interdisciplinary dialogue that tracks the flow of sounds in new media environments.

Landon Morrison est College Fellow à l'Université Harvard, où il a récemment commencé à enseigner après avoir complété son doctorat en théorie musicale à l'École de musique Schulich de l'Université McGill à Montréal. Sa thèse, intitulée "Sons, signaux, signes : Transductive Currents in Post-Spectral Music at IRCAM ", examine la relation entre les pratiques de composition contemporaines, le développement technologique et la psychoacoustique dans le contexte de la musique post-spectrale créée à l'Institut de Recherche et Coordination Acoustique/Musique de Paris (IRCAM). De façon plus générale, ses recherches visent à intégrer la théorie de la musique et l'étude des médias dans un dialogue interdisciplinaire qui suit le flux des sons dans les nouveaux environnements médiatiques.


Ben Neill (Ramapo College of New Jersey)
Fantini Futuro
vidéo / video

Fantini Futuro is a new audio-visual performance work for Ben Neill’s Mutantrumpet V4, countertenor, Baroque keyboards, and interactive video projections. It is being created for the 64 channel Antechamber at Nokia Bell Labs where Neill is an Artist in Residence in the Experiments in Art and Technology program.
The piece is based on the music and life of early Baroque trumpeter/composer Girolamo Fantini, who was responsible for bringing the trumpet indoors from the hunt and the battlefield to the realm of art music. Fantini was a musical celebrity in his time, and wrote one of the earliest collections of music written for trumpet alone as well as with keyboards. He also pioneered the use of mutes to expand the dynamic range of the instrument for indoor use along with numerous other playing techniques. Fantini Futuro remixes and collages Fantini’s material both compositionally and in real time during performance through live sampling. The work draws connections between the dynamic energy of early Baroque musical and architectural vocabularies and minimalist patterns and processes, reflecting on the improvisatory musical performance practices of Fantini's time through a variety of interactive technologies.
The visual component is primarily comprised of architectural imagery from places where Fantini lived and performed. The animated architectural imagery is controlled live from Neill’s mutantrumpet and creates the sensation of the performers being situated in virtual worlds created from these historical elements.

Fantini Futuro est une nouvelle œuvre de performance audiovisuelle pour Mutantrumpet V4 de Ben Neill, contre-ténor, claviers baroques et projections vidéo interactives. Il est en cours de création pour l'antichambre 64 canaux de Nokia Bell Labs où Neill est artiste en résidence dans le programme Experiments in Art and Technology.
La pièce est basée sur la musique et la vie du trompettiste/compositeur baroque Girolamo Fantini, qui a amené la trompette de la chasse et du champ de bataille à l'intérieur du royaume de la musique artistique. Fantini était une célébrité musicale de son temps, et a écrit l'une des premières collections de musique écrite pour trompette seule ainsi qu'avec des claviers. Il a également été le pionnier de l'utilisation des muets pour élargir la gamme dynamique de l'instrument pour une utilisation en intérieur, ainsi que de nombreuses autres techniques de jeu. Fantini Futuro remixe et collage le matériel de Fantini, aussi bien en composition qu'en temps réel pendant l'exécution par le biais de l'échantillonnage live. L'œuvre établit des liens entre l'énergie dynamique des premiers vocabulaires musicaux et architecturaux baroques et les modèles et processus minimalistes, en réfléchissant sur les pratiques d'interprétation musicale improvisée de l'époque de Fantini à travers une variété de technologies interactives.
La composante visuelle est principalement composée d'images architecturales provenant de lieux où Fantini a vécu et joué. L'imagerie architecturale animée est contrôlée en direct de la Mutantrumpet de Neill et crée la sensation que les interprètes se trouvent dans des mondes virtuels créés à partir de ces éléments historiques.

BIOGRAPHY
Composer/performer Ben Neill is the inventor of the mutantrumpet, a hybrid electro-acoustic instrument, and is widely recognized as a musical innovator through his recordings, performances and installations. Neill’s music blends influences from electronic, jazz, and minimalist music, blurring the lines between digital media and acoustic instrument performance.
Neill began developing the mutantrumpet in the early 1980s with synthesizer inventor Robert Moog. In 1992, while in residency at the STEIM research and development lab for new instruments in Amsterdam, Neill made a new, fully computer interactive version. In 2008 he created a new instrument at STEIM, and returned there in 2016-17 to design the latest version.
Currently an Artist in Residence at Nokia Bell Labs Experiments in Art and Technology program, Neill has recorded eleven CDs of his music on labels including Universal/Verve, Thirsty Ear, Astralwerks, and Six Degrees. ITSOFOMO, his major collaborative piece with visual artist David Wojnarowicz created in 1989, was recently performed at the Whitney Museum. Other performances include BAM Next Wave Festival, Big Ears Festival, Bing Concert Hall Stanford University, Lincoln Center, Whitney Museum of American Art, Cite de la Musique Paris, Moogfest, Spoleto Festival, Umbria Jazz, Bang On A Can Festival, ICA London, Istanbul Jazz Festival, Vienna Jazz Festival, and the Edinburgh Festival. Neill has worked with many musical innovators including La Monte Young, John Cage, John Cale, Pauline Oliveros, Rhys Chatham, DJ Spooky, David Berhman, Mimi Goese, King Britt, and Nicolas Collins. Neill leads concerts of Young’s The Second Dream with an international brass ensemble.

Le compositeur-interprète Ben Neill est l'inventeur de la Mutantrumpet, un instrument électroacoustique hybride, et est largement reconnu comme un innovateur musical à travers ses enregistrements, performances et installations. La musique de Neill mélange les influences de l'électronique, du jazz et de la musique minimaliste, estompant les frontières entre les performances des médias numériques et des instruments acoustiques.
Neill a commencé à développer la mutantrumpet au début des années 1980 avec l'inventeur du synthétiseur Robert Moog. En 1992, alors qu'il était en résidence au laboratoire de recherche et développement de STEIM à Amsterdam pour de nouveaux instruments, Neill a réalisé une nouvelle version entièrement interactive sur ordinateur. En 2008, il crée un nouvel instrument chez STEIM et y revient en 2016-17 pour concevoir la dernière version.
Actuellement artiste en résidence au programme Nokia Bell Labs Experiments in Art and Technology, Neill a enregistré onze CD sur des labels comme Universal/Verve, Thirsty Ear, Astralwerks et Six Degrees. ITSOFOMO, sa pièce majeure créée en 1989 en collaboration avec le plasticien David Wojnarowicz, a récemment été présentée au Whitney Museum. D'autres performances comptent parmi le BAM Next Wave Festival, Big Ears Festival, Bing Concert Hall Stanford University, Lincoln Center, Whitney Museum of American Art, Cite de la Musique Paris, Moogfest, Spoleto Festival, Umbria Jazz, Bang On A Can Festival, ICA London, Istanbul Jazz Festival, Vienna Jazz Festival, et Edinburgh Festival. Neill a travaillé avec de nombreux innovateurs musicaux dont La Monte Young, John Cage, John Cale, Pauline Oliveros, Rhys Chatham, DJ Spooky, David Berhman, Mimi Goese, King Britt et Nicolas Collins. Neill dirige les concerts de Young's The Second Dream avec un ensemble international de cuivres.


Anésio Azevedo Costa Neto (Instituto Federal de São Paulo—IFSP / Universidade de Brasília / IDMIL—McGill University)
Cerrado—Applying spatialization techniques to expanded perceptive fields
Cerrado—Application des techniques de spatialisation à des champs perceptifs élargis
vidéo / video

As an art researcher, I depart from the assumption that each specific environment has a kind of listening that becomes fundamental toward what we perceive in general in that environment. The aim of this research presentation is to show how I manage to enhance the sensation of immersiveness by modifying the distribution, the trajectories, and the intensity of sound sources in a tridimensional spatial axis and how this has helped me to develop an expanded ambient wherein people could experience an amount of Nature’s complexity that underlies what is possible to perceive. The artistic idea evokes not only the technique research but also the continuous process that gathers audiovisual data into potential materials as building blocks through my performances.

En tant que chercheur dans le domaine de l’art, je pars de l’hypothèse que chaque environnement spécifique a une forme d’écoute qui devient fondamentale dans la perception générale de cet environnement. Le but de cette présentation de recherche est de montrer comment j’arrive à améliorer la sensation d’immersion en modifiant la distribution, la trajectoire, ainsi que l’intensité des sources de son, dans un axe spatial tridimensionnel. Le but est aussi de montrer comment cela m’a aidé à développer un environnement élargi, où les gens pourraient ressentir une certaine complexité de la nature, qui sous-tend ce qui est percevable. L’idée artistique évoque non seulement la recherche technique, mais aussi le processus continu qui rassemble les données audiovisuelles en matériaux potentiels tels que des éléments constitutifs, au sein de mes performances.

BIOGRAPHY
Under the name "stellatum_", Anésio Azevedo Costa Neto explores sounds, either recorded from Cerrado - a dominion/biome in Brazil - or produced by himself to create audiovisual ambiances that aim to expand one’s perception of Nature by offering cues to perceive its own length of time. Anésio is a Philosophy teacher at Instituto Federal de São Paulo (IFSP) and is a Ph.D. candidate for Universidade de Brasilia (UnB), Brasília, Brazil. Bandcamp: https://stellatum.bandcamp.com/
Soundcloud: https://soundcloud.com/an-sio-azevedo

Sous le nom “stellatum_”, Anésio Azevedo Costa Neto explore les sons, soit enregistré à partir du Cerrado - un dominion/biome au Brésil - soit auto-produit, pour créer des ambiances audiovisuelles qui ont pour but d’étendre notre perception de la nature, en offrant des indices pour percevoir sa propre durée de temps. Anésio est professeur de philosophie à l’Institut Fédéral de Sao Paulo (IFSP) et un candidat au Doctorat de l’Université de Brasilia (UnB), au Brésil. Bandcamp: https://stellatum.bandcamp.com/ Soundcloud: https://soundcloud.com/an-sio-azevedo


Jason Noble (McGill University)
A case study of the perceptual challenges and advantages of homogeneous orchestration: fantaisie harmonique (2019) for two guitar orchestras
Etude de cas sur les défis et avantages perceptifs de l'orchestration homogène : fantaisie harmonique (2019) pour deux orchestres de guitares
vidéo / video

“Orchestration” is defined by Stephen McAdams as “the choice, combination or juxtaposition of sounds to achieve a musical end.” This typically invokes a palette of heterogeneous sounds, especially those of the instruments of the symphony orchestra, but McAdams’ definition equally applies to homogeneous sound palettes encountered in ensembles of uniform composition, such as the guitar orchestra. Since orchestral effects predicated on perceptual difference—such as stratification and segmentation—often rely on timbral heterogeneity, orchestrating for homogeneous ensembles presents a different set of challenges where such effects are desirable. On the other hand, since orchestral effects predicated on perceptual similarity—such as blend and textural integration—are facilitated by timbral homogeneity, orchestrating for homogeneous ensembles may present a different set of advantages.
In this presentation, I will discuss my composition fantaisie harmonique (2019), for two guitar orchestras (one of classical guitars and another of electric guitars). Several musical devices are exploited which would be difficult or impossible to achieve with equal effectiveness in a more heterogeneous ensemble, including: (1) an elaborate tuning system combining elements of equal temperament and just intonation, in which each orchestra is divided into six different tuning groups, (2) an extensive hocketing section, (3) massed sonorities exploiting a variety of perceptual principles. The piece was conceived with spatial deployment of the instrumental groups in mind, and a forthcoming recording of the piece will use spatialization as a perceptual cue to distinguish groups, filling one of the traditional roles of timbral heterogeneity in more orthodox approaches to orchestration.

L’orchestration est définie par Stephen McAdams comme "le choix, la combinaison ou la juxtaposition de sons pour atteindre un but musical". Ceci évoque typiquement une palette de sons hétérogènes, en particulier ceux des instruments de l'orchestre symphonique, mais la définition de McAdams s'applique également aux palettes sonores homogènes rencontrées dans des ensembles de composition uniforme, tels que l'orchestre de guitare. Étant donné que les effets orchestraux fondés sur la différence de perception - comme la stratification et la segmentation - reposent souvent sur l'hétérogénéité timbrale, l'orchestration d'ensembles homogènes présente un ensemble différent de défis lorsque de tels effets sont souhaitables. D'autre part, comme les effets orchestraux fondés sur la similitude perceptuelle - comme le mélange et l'intégration des textures - sont facilités par l'homogénéité timbrale, l'orchestration d'ensembles homogènes peut présenter de nombreux avantages.
Dans cette présentation, je parlerai de ma composition “fantaisie harmonique” (2019), pour deux orchestres de guitare (un de guitares classiques et un autre de guitares électriques). Plusieurs dispositifs musicaux sont exploités, ce qui seraient difficiles voir impossibles à réaliser avec la même efficacité dans un ensemble plus hétérogène, y compris : (1) un système d'accordage élaboré combinant des éléments de tempérament égal et d'intonation juste, dans lequel chaque orchestre est divisé en six groupes d'accordage différents, (2) une vaste section de hocketing, (3) des sonorités de masse exploitant une variété de principes perceptifs. La pièce a été conçue en gardant à l’esprit le déploiement spatial des groupes instrumentaux, et un prochain enregistrement de la pièce utilisera la spatialisation comme repère perceptuel pour distinguer les groupes, remplissant un des rôles traditionnels de l'hétérogénéité timbrale dans les approches plus orthodoxes de l'orchestration.

BIOGRAPHY
Jason Noble has been described as “a master at translating feeling and imparting emotion through music,” and his compositions have been called “a remarkable achievement, indeed brilliant, colourful, astounding, challenging.” His work seeks balance between innovation and accessibility, motivated by a belief that contemporary music can be genuinely progressive and communicative at the same time. A lifelong chorister and occasional conductor, Jason has composed for many of Canada’s finest choirs, including full mass settings for Pro Coro Canada (Edmonton) and Christ Church Cathedral Choir (Montreal, QC), and works for the Vancouver Chamber Choir (Vancouver, BC), Amabile Choirs (London, ON), Soundstreams (Toronto, ON), voces boreales (Montreal), Nova Voce (Halifax, NS), and Newman Sound (St. John’s, NL).
Jason’s compositions have been performed across Canada and in USA, Argentina, Mexico, France, Belgium, the Netherlands, Germany, Denmark, and Italy, and featured in publications, recordings, and broadcasts. He has held numerous composition residencies including Pro Coro Canada at the Banff Centre, the St. John’s International Sound Symposium, the Bathurst Chamber Music Festival, the Edge Island Festival for Choirs and Composers, the Newfoundland and Labrador Registered Music Teachers’ Association, and the Sudbury Symphony Orchestra.
Also an accomplished scholar, Jason is currently a postdoctoral researcher at McGill University, working on the ACTOR project (Analysis, Creation, and Teaching of Orchestration). His PhD at McGill was funded by the prestigious Vanier Scholarship (SSHRC). His research appears in Music Perception and Music Theory Online. He has presented at numerous national and international conferences and invited guest lectures.

Jason Noble a été décrit comme "un maître de la traduction des sentiments et de la transmission des émotions par la musique", et ses compositions ont été qualifiées de "succès remarquable, voire brillant, coloré, étonnant, stimulant". Son travail recherche l'équilibre entre innovation et accessibilité, motivé par la conviction que la musique contemporaine peut être à la fois véritablement progressiste et communicative. Chœur de toute une vie et chef d'orchestre à l’occasion, Jason a composé pour les meilleures chorales du Canada, y compris des messes pour Pro Coro Canada (Edmonton) et Christ Church Cathedral Choir (Montréal, QC), et travaille pour le Vancouver Chamber Choir (Vancouver, BC), Amabile Choirs (London, ON), Soundstreams (Toronto, ON), voces boreales (Montreal), Nova Voce (Halifax, NS) et Newman Sound (St. John's, NL).
Ses compositions ont été interprétées au Canada et aux États-Unis, en Argentine, au Mexique, en France, en Belgique, aux Pays-Bas, en Allemagne, au Danemark et en Italie, et ont fait l'objet de publications, d'enregistrements et de diffusions. Il a participé à de nombreuses résidences, dont Pro Coro Canada au Banff Centre, l'Orchestre symphonique de Banff et l'Orchestre symphonique de Montréal John's International Sound Symposium, le Bathurst Chamber Music Festival, le Edge Island Festival for Choirs and Composers, la Newfoundland and Labrador Registered Music Teachers' Association et le Sudbury Symphony Orchestra.
Chercheur accompli, Jason est actuellement chercheur postdoctoral à l'Université McGill, travaillant sur le projet ACTOR (Analyse, création et enseignement de l'orchestration). Son doctorat à McGill a été financé par la prestigieuse Bourse d'études Vanier (CRSH). Ses recherches sont publiées dans Music Perception et Music Theory Online. Il est intervenu lors de nombreuses conférences nationales et internationales et a été invité à donner des conférences.


Robert Normandeau
ControlGRIS/SpatGRIS3: Les outils de spatialisation développés à l'UdeM
ControlGRIS/SpatGRIS3: Spatialization tools developed at UdeM

vidéo / video

Depuis 2008, le groupe de recherche en immersion spatiale (GRIS) de la Faculté de musique de l'Université de Montréal développe des outils de spatialisation destinés à des environnements immersifs de multiples haut-parleurs. Nous avons d'abord produit des plugiciels destinés à l'intégration à l'intérieur des stations de travail audionumériques les plus courantes. Et par la suite nous avons publié un premier logiciel de spatialisation, d'abord destiné aux dômes de haut-parleurs, puis dans sa deuxième version à tous les types de dispositif de haut-parleurs, comme ceux qu'on retrouvent dans les acousmoniums, les galeries d'art, ou les salles de concert. Nous en sommes aujourd'hui à la version 3 de SpatGRIS, dont les principales améliorations sont l'abandon de la dépendance à JackRouter, plugiciel HAL abandonné maintenant et incompatible avec MacOS 10.15 (Catalina) et l'ouverture à une plus grande flexibilité pour l'utilisateur en termes d'entrée/sortie. Nous avons également entamé une étroite collaboration avec le développeur de BlackHole afin d'offrir aux utilisateurs un environnement de travail à 128 canaux. Nous présenterons l'essentiel des caractéristiques de ces outils lors de cette allocution.

Since 2008, the research group in spatial immersion (GRIS) of the Faculty of Music of the University of Montreal has been developing spatialization tools intended for immersive environments with multiple speakers. We first produced plugins intended for integration into the most popular digital audio workstations. And subsequently we published a first spatialization software, first intended for speaker domes, then in its second version for all types of speaker setups, such as those found in acousmoniums, art galleries, or concert halls. We are now at version 3 of SpatGRIS, the main improvements of which are the abandonment of the dependence on JackRouter, a HAL plug-in now discontinued and incompatible with MacOS 10.15 (Catalina) and the opening to greater flexibility for the user in terms of input / output. We have also started a close collaboration with the developer of BlackHole to provide users with a 128-channel working environment. We will present the main characteristics of these tools during this talk.

BIOGRAPHY
Son travail de compositeur est principalement consacré à la musique acousmatique, quoiqu’il ait composé quelques œuvres mixtes. Plus spécifiquement, par les sonorités utilisées et les choix esthétiques qui la tendent, sa démarche s’inscrit dans un «cinéma pour l’oreille» où le ‘sens’ contribue à l’élaboration de ses œuvres tout autant que le ‘son’. Plus récemment Robert Normandeau a composé un cycle d’œuvres de musique immersive multiphonique pour dôme de haut-parleurs. À son travail de compositeur de musique de concert s’est ajouté, pendant une vingtaine d’années, celui de compositeur de musique de scène, pour le théâtre notamment.
Il a aussi œuvré comme directeur artistique pendant plus de vingt ans, notamment pour les séries de concerts Clair de terre (Association pour la création et la recherche électroacoustiques du Québec (ACREQ)) de 1989 à 93 au Planétarium de Montréal, et Rien à voir et Akousma (Réseaux) de 1997 à 2006. Il est professeur de composition électroacoustique à l’Université de Montréal depuis 1999 après avoir obtenu le premier doctorat (1992) en composition électroacoustique de l’Université de Montréal, sous la direction de Marcelle Deschênes et de Francis Dhomont. Il y dirige le Groupe de recherche immersion spatiale (GRIS), qui produit des logiciels de spatialisation sonore.
Il a reçu trois Prix Opus décernés par le Conseil québécois de la musique (CQM) dont deux en 1999 — «Compositeur de l’année» et «Disque de l’année — Musique contemporaine» pour son disque Figures (IMED 0944) — et un en 2013 — «Disque de l’année — Musique actuelle, électroacoustique» pour son disque Palimpseste (IMED 12116). L’Académie québécoise du théâtre (AQT) lui a décerné deux Masques «Meilleure musique de théâtre», le premier en 2002, pour la pièce Malina et le second en 2005, pour la pièce La cloche de verre, toutes deux dirigées par la metteure en scène Brigitte Haentjens. Robert Normandeau est lauréat de plusieurs concours internationaux dont le Golden Nica à Prix Ars Electronica, Linz (Autriche, 1996).

His work as a composer is mainly devoted to acousmatic music, although he composed some mixed works. More specifically, his compositions employ esthetical criteria whereby he creates a ‘cinema for the ear’ in which ‘meaning’ as well as ‘sound’ become the elements that elaborate his works. More recently Robert Normandeau composed a cycle of works of immersive multiphonic music for dome of loudspeakers. Along with concert music he has composed, for a period of twenty years, incidental music especially for the theatre.
He also worked as artistic director for over twenty years, especially for the concert series Clair de terre (Association pour la création et la recherche électroacoustiques du Québec (ACREQ)) from 1989 to ’93 at the Planétarium de Montréal, and Rien à voir and Akousma (Réseaux) from 1997 to 2006. He is Professor in electroacoustic music composition at Université de Montréal since 1999 after completing the first PhDMus in Electroacoustic Composition (1992), under Marcelle Deschênes and Francis Dhomont. He leads the Groupe de recherche immersion spatiale (Spatial Immersion Research Group, GRIS), which produces sound spatialisation software.
He received three Prix Opus from the Conseil québécois de la musique (CQM): two in 1999 — “Composer of the Year” and “Record of the Year — Contemporary Music” for Figures (IMED 0944) — and one in 2013 — “Record of the Year — Contemporary Music” for Palimpseste (IMED 12116). The Académie québécoise du théâtre (AQT) has given him two Masque Awards (“Best Music for Theatre”): one in 2002 for the play Malina and the second in 2005 for the play La cloche de verre, both directed by stage director Brigitte Haentjens. Robert Normandeau is an award winner of numerous international competitions, including the Golden Nica at Prix Ars Electronica, Linz (Austria, 1996).


Ofer Pelz and Matan Gover (CIRMMT)
Sound Tracks: An interactive video game composition
Sound Tracks: Une composition de jeu vidéo interactif
vidéo / video

In this demo, we will present and discuss our piece entitled Sound Tracks, originally written for a live@CIRMMT concert and performed by Ensemble Aka. Sound Tracks lies on the continuum between a video game and a musical composition. The game’s graphical user interface consists of a set of ‘tracks’, one track per musician. Each track contains moving graphical symbols that represent musical gestures, and these symbols approach the viewers from the horizon. When the graphical symbols arrive to the musicians, they must play the corresponding musical gesture. This interface is inspired by a well-known video game called Guitar Hero.
The graphical interface and game rules replace the traditional musical score: the unfolding of a performance is not predetermined as in most classical music but plays out in real-time according to rules, chance operations, and improvisatory decisions taken by the performers.
In our demo, we will demonstrate a performance or recording of this work, as well as discuss the ideas that underpin its creation and questions that arose while performing it with several ensembles. The following themes will be discussed:
- Gamified composition: How does replacing traditional music notation and musical development with a game-based interface affect the mindset of the musicians and the audience during a performance?
- Improvisation vs. predetermination: How do musicians improvise in a given musical framework? How much information should be dictated by a score, versus leaving room for interpretation?
- Timbre and orchestration: How does a small set of musical gestures spread across multiple instruments get combined into complex timbres and textures? How do different instruments interpret the same musical ideas?
- The technology behind this game piece - the implementation and the control of the application for the performance.

Dans cette démo, nous présenterons et interrogerons notre pièce intitulée Sound Tracks, écrite à l'origine pour un concert live@CIRMMMT et interprétée par l'Ensemble Aka. Sound Tracks se situe sur le continuum entre un jeu vidéo et une composition musicale. L'interface utilisateur graphique du jeu se compose d'un ensemble de " pistes ", une piste par musicien. Chaque piste contient des symboles graphiques en mouvement qui représentent des gestes musicaux, et ces symboles approchent les spectateurs de l'horizon. Lorsque les symboles graphiques arrivent aux musiciens, ils doivent jouer le geste musical correspondant. Cette interface s'inspire d'un jeu vidéo bien connu appelé Guitar Hero.
Dans notre démo, nous ferons la démonstration d'une interprétation ou d'un enregistrement de cette œuvre, tout en discutant des idées qui sous-tendent sa création et des questions qui ont surgi lors de son exécution avec plusieurs ensembles. Les thèmes suivants seront abordés :
- Composition gamifiée : En quoi le fait de remplacer la notation musicale traditionnelle et le développement musical par une interface basée sur le jeu affecte-t-il l'état d'esprit des musiciens et de l'auditoire pendant un concert ?
- Improvisation contre prédétermination : Comment les musiciens improvisent-ils dans un cadre musical donné ? Quelle quantité d'information devrait être dictée par une note, par opposition à une marge d'interprétation ?
- Timbre et orchestration : Comment un petit ensemble de gestes musicaux répartis sur plusieurs instruments se combine-t-il en timbres et textures complexes ? Comment différents instruments interprètent-ils les mêmes idées musicales ?
- La technologie derrière cette pièce de jeu - la mise en œuvre et le contrôle de l'application pour la performance.

BIOGRAPHY
Ofer Pelz composes music for diverse combinations of instruments and electroacoustic media, he is also an active improviser. He is the co-founder of Whim Ensemble together with Preston Beebe. He has studied composition, music theory, and music technology at Jerusalem, Paris, and Montreal. The work of Ofer Pelz has been recognized by the reception of many international prizes including two ACUM awards and the Ernst Von Siemens Grant. Meitar Ensemble, Cairn Ensemble, Ardeo String Quartet, The Israel Contemporary Players, Le Nouvel Ensemble Moderne, Architek Percussion, Geneva Camerata, and Neue Vocalsolisten are among the ensembles that played Pelz’s music. His music is played regularly in Europe, USA, Canada and Israel at La Biennale di Venezia and Manifeste IRCAM/Pompidou among others. https://oferpelz.com/

Matan Gover is a multi-disciplinary musician and software developer. He is currently combining his two passions in McGill University’s Music Technology department, where he researches computational processing of vocal music supervised by Prof. Philippe Depalle. Matan won the America-Israel Cultural Foundation scholarship for piano performance, and completed his B.Mus. in orchestral conducting summa cum laude in Jerusalem. Matan is a professional choir singer, and has written orchestrations and arrangements for ensembles such as the Jerusalem Symphony Orchestra and Jerusalem Academy Chamber Choir. Matan has been a professional software developer since the age of 15. He now works at LANDR Audio Inc. on an A.I.-powered music processing engine that performs automatic music mastering. http://matangover.com

Ofer Pelz compose de la musique pour diverses combinaisons d'instruments et de médias électroacoustiques, et est activement improvisateur. Il est le co-fondateur du Whim Ensemble avec Preston Beebe. Il a étudié la composition, la théorie musicale et la technologie musicale à Jérusalem, Paris et Montréal. Le travail d'Ofer Pelz a été reconnu par la réception de nombreux prix internationaux, dont deux prix de l'ACUM et la bourse Ernst Von Siemens. Meitar Ensemble, Cairn Ensemble, Ardeo String Quartet, The Israel Contemporary Players, Le Nouvel Ensemble Moderne, Architek Percussion, Geneva Camerata, et Neue Vocalsolisten font partis des ensembles qui ont joué la musique de Pelz. Sa musique est régulièrement jouée en Europe, aux Etats-Unis, au Canada et en Israël, entre autres à la Biennale de Venise et au Manifeste IRCAM/Pompidou. https://oferpelz.com

Matan Gover est musicien pluridisciplinaire et développeur de logiciels. Il combine actuellement ses deux passions au sein du département de technologie musicale de l'Université McGill, où il effectue des recherches sur le traitement informatique de la musique vocale sous la direction du professeur Philippe Depalle. Matan a remporté la bourse de la Fondation culturelle Amérique-Israël pour l'interprétation au piano et a complété son B.Mus. en direction d'orchestre avec mention très bien à Jérusalem. Matan est un chanteur de chœur professionnel, et a écrit des orchestrations et des arrangements pour des ensembles tels que l'Orchestre Symphonique de Jérusalem et le Chœur de Chambre de l'Académie de Jérusalem. Matan est un développeur de logiciels professionnel depuis l'âge de 15 ans et travaille maintenant chez LANDR Audio Inc. sur un moteur de traitement musical alimenté par l'I.A., qui effectue la masterisation automatique de la musique. http://matangover.com


Diego Quiroz (McGill University)
Gestural Control for immersive recordings using Leap Motion for SPAT:Revolution
Contrôle gestuel pour les enregistrements immersifs utilisant Leap Motion pour SPAT:Revolution
vidéo / video

Innovative immersive recording techniques that involve height channels are being steadily developed, but are not matched by better methods of panning control. Only traditional knobs and faders from existing control surfaces have been paired with spatialization engine parameters, resulting in cumbersome andinadequate panning of the complex multi-channel stems. A Leap Motion Controller has been linked to some of the spatialization parameters of SPAT:Revolution in an effort to explore the use of gestural methods in sound design and mixing. The user can learn an alternate way of panning control that allows a higher degree of flexibility afforded during sophisticated mixing sessions.

Des techniques innovantes d'enregistrement immersif impliquant des canaux de hauteur sont régulièrement développées, mais elles ne sont pas assorties de meilleures méthodes de contrôle de panoramique. Seuls les boutons et les faders traditionnels des surfaces de contrôle existantes ont été associés aux paramètres des moteurs de spatialisation, ce qui a entraîné un balayage panoramique lourd et inadéquat des tiges multicanaux complexes. Un Leap Motion Controller a été associé à certains des paramètres de spatialisation de SPAT:Revolution dans le but d'explorer l'utilisation de méthodes gestuelles dans la conception sonore et le mixage. L'utilisateur peut apprendre une autre façon de contrôler le panoramique qui permet un plus grand degré de flexibilité lors de sessions de mixage sophistiquées.

BIOGRAPHY
Recording engineer, musician and teacher of music production and audio engineering, and immersive audio. He has recorded classical music records in Montreal, Canada with classical orchestras, jazz orchestras and numerous ensembles of baroque, contemporary and modern music. Graduated from the Master of Sound Recording at McGill University in Montreal, Canada, and from Musical Synthesis major, Magna Cum Laude at Berklee College of Music in Boston, USA. He is current PhD candidate in Sound Recording at McGill University with highly renowned professors such as George Massenburg, Richard King, Wieslaw Wosczcyk and Martha de Francisco. Diego has been involved in numerous AES conference papers since becoming a PhD candidate in subjects around immersive audio perceptual evaluation, height-channel formats perceptual evaluation, gestural control for audio, audio perception in VR/AR and Hi Resolution audio. Diego ́s thesis proposal encompasses input devices and gestural control for 3D audio production. Other interests include, ambisonics, binaural audio, VR/AR in audio.

Ingénieur en enregistrement, musicien et professeur de production musicale, d'ingénierie sonore, et de son immersif. Il a enregistré des disques de musique classique à Montréal, au Canada, avec des orchestres classiques, des orchestres de jazz et de nombreux ensembles de musique baroque, contemporaine et moderne. Il est diplômé du Master of Sound Recording de l'Université McGill à Montréal, et de la spécialité Synthèse musicale, Magna Cum Laude, du Berklee College of Music à Boston, États-Unis. Il est actuellement candidat au doctorat en enregistrement sonore à l'université McGill avec des professeurs de grande renommée tels que George Massenburg, Richard King, Wieslaw Wosczcyk et Martha de Francisco. Diego a participé à de nombreuses conférences de l'AES depuis qu'il est devenu doctorant sur des sujets tels que l'évaluation perceptive de l'audio immersif, l'évaluation perceptive des formats de canaux de hauteur, le contrôle gestuel de l'audio, la perception audio en RV/AR et l'audio haute résolution. Sa proposition de thèse englobe les dispositifs d'entrée et le contrôle gestuel pour la production audio en 3D. D'autres domaines d'intérêt comprennent l'ambisonique, l'audio binaurale et la RV/AR dans l’audio.


Laurie Radford (University of Calgary)
Getting into Place/Space: The Pedagogy of Spatial Audio
Se mettre en place/espace : La Pédagogie de l'Audio Spatiale
vidéo / video

Human acquisition of skills and knowledge about the spaces they inhabit is linked to our development of proprioceptive skills from the earliest moments of physical and psychological negotiation with the world around us. The acquisition of “spatial intelligence” extends to the development of skills in comprehending the acoustic spaces through which we move, unconsciously and consciously measuring, comparing and committing to memory the sound signals and sources fleetingly inhabiting these spaces while building a library of sounding spaces to which we return and reference. Musicians, composers and sound artists develop their craft via time-honoured instruction in listening intently to instruments and sources of sound, considering their means of activation and the many parameters of sound generation moving in time. It is taken for granted that this sonic activity occurs within a particular bounded space and that that space affects the perception of sound and by extension the manner of performance practice and sound activation required. Yet, aside from certain electroacoustic studies that consider the ramifications of the technological mediation of space through stereo and multichannel sound projection environments, immersive cinema and video game design research, and spatial ear-training methods for audio engineers, there is very little overt instruction in spatial listening, a directed and methodical study of acoustic space as experienced in the myriad places and spaces that music and sound art are presented targeted at musicians and sound artists. The current proliferation of dedicated high-density loudspeaker arrays for spatial design, as well as improved and accessible technologies for capturing, preserving and reproducing the complexities of acoustic spaces, provides a fertile environment in which to initiate and develop such a pedagogy of spatial listening. This presentation will consider some of the fundamental parameters of spatial listening and perception of space that contribute to the skills involved in compositional design and control of spatial audio. An outline of a methodology of spatial sound pedagogy is proposed and illustrated with a series of spatial audio exercises that consider experiential learning, terminology and concepts, technologies for deployment, and creative application.

L'acquisition humaine de compétences et de connaissances sur les espaces qu'ils habitent est liée à notre développement de compétences proprioceptives dès les premiers instants de la négociation physique et psychologique avec le monde qui nous entoure. L'acquisition de "l'intelligence spatiale" s'étend au développement de compétences, dans la compréhension des espaces acoustiques à travers lesquels nous nous déplaçons, en mesurant, comparant et mémorisant inconsciemment et consciemment les signaux et les sources sonores qui peuplent ces espaces et en construisant une bibliothèque d'espaces sonores auxquels nous retournons et auxquels nous faisons référence. Musiciens, compositeurs et artistes du son développent leur art par l'enseignement séculaire de l'écoute attentive des instruments et des sources sonores, en tenant compte de leurs moyens d'activation et des nombreux paramètres de la production sonore en mouvement dans le temps.
On tient pour acquis que cette activité sonore se déroule dans un espace délimité particulier et que cet espace affecte la perception du son et, par extension, le mode de pratique de l'interprétation et l'activation sonore requise. Pourtant, mis à part certaines études électroacoustiques qui examinent les ramifications de la médiation technologique de l'espace par le biais d'environnements de projection sonore stéréo et multicanaux, la recherche en conception de cinéma et de jeux vidéo immersifs et les méthodes spatiales de formation auditive pour les ingénieurs du son, il existe très peu de formation explicite en écoute spatiale, une étude dirigée et méthodique de l'espace acoustique telle qu'on en fait l'expérience dans une multitude de lieux, des espaces où les musiciens et artistes sonores reçoivent de la musique et des œuvres sonores. La prolifération actuelle de réseaux de haut-parleurs à haute densité dédiés à la conception spatiale, ainsi que les technologies améliorées et accessibles pour capturer, préserver et reproduire les complexités des espaces acoustiques, offrent un environnement fertile pour initier et développer une telle pédagogie de l'écoute spatiale. Cette présentation portera sur certains des paramètres fondamentaux de l'écoute spatiale et de la perception de l'espace qui contribuent aux compétences nécessaires à la conception et au contrôle de la composition de l'audio spatial. Un aperçu d'une méthodologie de pédagogie du son spatial est proposé et illustré par une série d'exercices audio spatiaux qui tiennent compte de l'apprentissage par l'expérience, de la terminologie et des concepts, des technologies de déploiement et des applications créatives.

BIOGRAPHY
Laurie Radford is a Canadian composer, sound artist, music technologist, educator and researcher who creates music for diverse combinations of instruments and voices, electroacoustic media, and performers in interaction with computer-controlled signal processing of sound and image. His music fuses timbral and spatial characteristics of instruments and voices with mediated sound and image in a sonic art that is rhythmically visceral, formally exploratory and sonically engaging.
His music has been performed and broadcast throughout North and South America, Europe and Asia. He has received commissions and performances from ensembles including the Aventa Ensemble, Ensemble Transmission, Esprit Orchestra, New Music Concerts, Le Nouvel Ensemble Modern, L'Ensemble contemporain de Montréal, Meitar Ensemble, Paramirabo, Pro Coro Canada, Thin Edge New Music Collective, Trio Fibonacci, the Penderecki, Bozzini and Molinari String Quartets, and the Winnipeg, Calgary, Edmonton and Montréal Symphony Orchestras. He has contributed articles and reviews on electroacoustic, interactive and audiovisual composition to journals such as Computer Music Journal, Circuit, and eContact!
Radford’s music is available on empreintes DIGITALes, McGill Records, PeP Recordings, Clef Records, Eclectra Records, Centrediscs and Fidelio Audiophile Recordings. He has taught composition, electroacoustic music and music technology at McGill University, Concordia University, Bishop’s University, University of Alberta, City University (London, UK), and is presently Professor of Composition and Sonic Arts at the University of Calgary.

Laurie Radford compose pour les combinaisons d’instruments variés, le média électroacoustique, et pour des intérprètes en interaction avec le traitement audionumérique du son et de l’image. Sa musique a été présenté à travers l’Amerique du nord et sud, Europe et Asie aux événements comme Akousma, Futura, Biennale Musique en scène, Miami New Music Festival, Musica Viva, Rien à voir, MusiMars, Musicacoustica, Akousma, San Francisco Tape Music Festival, Festival Encuentros, Nornadas de Música Elektroakustika, Semaine Internationale de Cuenca, Discoveries Series, Cutting Edge Series, et SAN Expo.
Ses oeuvres ont été commandées et interprétées par des ensembles et des soloistes incluant Le Nouvel Ensemble Modern, L'Ensemble contemporain de Montréal, Esprit Orchestra, Aventa Ensemble, Ensemble Résonance, code d'accès, GroundSwell, Pro Coro Canada, New Music Concerts, Trio Fibonacci, Trio Phoenix, Ensemble Transmission, Meitar Ensemble, Earplay, Quasar quatuor de saxophone, Sixtrum ensemble de percussion, Totem contemporain, les quatuors à cordes Penderecki, Bozzini et Molinari, et les orchestres symphoniques de Winnipeg, Calgary, Edmonton et Montréal.
La musique de Radford est disponsible sur empreintes DIGITALes, McGill Records, PeP Recordings, Clef Records, Eclectra Records, Centrediscs et Fidelio Audiophile Recordings. Il est compositeur associé du CMC et un membre du LCC, CEC, CNMN et Sound and Music UK. Radford a enseigné la technologie musicale, la musique électroacoustique, la composition instrumental et les arts médiatique à l’ Université McGill, l’Université Concordia, l’Université Bishops, l’Université d’Alberta, et le City University (London, UK). Il est actuellement professeur de composition et d’art sonores à l’Université de Calgary.


Jacques Rémus (Ipotam Mécamusique)
Les Thermophones, récentes évolutions et spatialisation
Thermophones: Recent Developments and Spatialization
vidéo / video, texte / text

Jacques Rémus a développé le projet des Thermophones en expérimentant divers phénomènes liés à une science récente la ThermoAcoustique. Plusieurs installations et concerts ont d’abord été faites avec des tuyaux utilisant le principe des “pyrophones”, basé sur l’effet Rijke. En relation avec Steve Garret de Penn State University et avec plusieurs chercheurs travaillant dans des laboratoires français (Limsy CNRS Saclay, Paris VI, et Laum au Mans), Jacques Rémus a commencé à développer un instrumentarium avec des tuyaux chauffés par des résistances électriques, les Thermophones.
Une présentation a été faite au Forum de l’Ircam en novembre 2015. Depuis, les manipulations de ces tuyaux aux sons purs, profonds, puissants et troublants, ont permis de développer des écritures musicales spécifiques et de produire des installations où la spatialisation de sources sonores acoustiques, s’adapte aux configuration sacoustiques des lieux d’installation. La spécificité des sons qui sont essentiellement constitués de l’onde fondamentale de chaque tuyau permet par contre d’envisager de les exploiter en tant qu’instruments «augmentables» pour d’autres écritures où la capture de leur chant peut être source de transformations audio et video. Les Thermophones sont pilotés par Max.

Jacques Rémus developed the Thermophones project by experimenting with various phenomena related to the recent science of ThermoAcoustics. Several installations and concerts were first imagined with pipes using the principle of "pyrophones", based on the Rijke effect. In association with Steve Garret from Penn State University and several researchers working in French laboratories (Limsy CNRS Saclay, Paris VI, and Laum au Mans), Jacques Rémus began to develop an instrumentarium with pipes heated by electrical resistors, the Thermophones.
A presentation was made at the IRCAM Forum in November 2015. Since then, the manipulations of these pipes with their pure, deep, powerful, and disturbing sounds, have made it possible to develop specific musical writings and to produce installations where the spatialization of acoustic sound sources adapts to the configuration of the installation sites. The uniqueness of the sounds, which are essentially made up of the fundamental wave of each pipe, makes it possible to consider the possibility of using them as "augmentable" instruments for other types of writing where the capture of their singing can be a source of audio and video transformations. The Thermophones are controlled by Max.

BIOGRAPHY
Biologiste à l'origine (agronome et chercheur en aquaculture), Jacques Rémus a choisi à la fin des années 70, de se consacrer à la musique et à l'exploration de différentes formes de création. Saxophoniste, il a participé à la fondation du groupe Urban-Sax. Il apparaît également dans de nombreux concerts allant de la musique expérimentale (Alan Sylva, Steve Lacy) à la musique de rue (Bread and Puppet). Après des études en Conservatoires, G.R.M. et G.M.E.B., il a écrit des musiques pour la danse, le théâtre, le "spectacles totaux", la télévision et le cinéma. Il est avant tout l'auteur d'installations et de spectacles mettant en scène des sculptures sonores et des machines musicales comme "Bombyx", le "Double Quatuor à Cordes", "Concertomatique", "Léon et le chant des mains", les "Carillons" N ° 1, 2 et 3, : « l’Orchestre des Machines à Laver » ainsi que ceux présentés au Musée des Arts Forains (Paris). Depuis 2014, son travail s'est concentré sur le développement des «Thermophones».

Originally a biologist (agronomist and aquaculture researcher), Jacques Rémus chose at the end of the 1970s to devote himself to music and the exploration of different forms of creation. As a saxophonist, he participated in the foundation of the group Urban-Sax. He also appeared in many concerts ranging from experimental music (Alan Sylva, Steve Lacy) to street music (Bread and Puppet). After studies in Conservatories, G.R.M. and G.M.E.B., he wrote music for dance, theater, "total spectacles," television and cinema. He is above all the creattor of installations and shows featuring sound sculptures and musical machines such as "Bombyx," the "Double String Quartet," "Concertomatique," "Léon et le chant des mains," the "Carillons" N ° 1, 2 and 3, and "l'Orchestre des Machines à Laver," as well as presentations at the Musée des Arts Forains (Paris). Since 2014, his work has focused on the development of the "Thermophones."


Lindsey Reymore (McGill University)
Instrument Qualia, Timbre Trait Profiles, and Semantic Orchestration Analysis
Analyse de la qualité des instruments, des profils de traits de timbre et de l'orchestration sémantique
vidéo / video

I present a method of computational orchestration analysis built from empirical studies of timbre semantics. In open-ended interviews, 23 musicians were asked to describe their phenomenal experiences of the sounds of 20 Western instruments. A content analysis of the transcribed interviews suggested 77 qualitative categories underlying the musicians’ descriptions. In a second study, 460 musician participants rated subsets of the same 20 instruments according to these 77 categories. Principal Component Analyses and supplementary polls produced a final 20-dimensional model of the cognitive linguistics of timbre qualia. The model dimensions include: rumbling/low, soft/singing, watery/fluid, direct/loud, nasal/reedy, shrill/noisy, percussive, pure/clear, brassy/metallic, raspy/grainy, ringing/long decay, sparkling/brilliant, airy/breathy, resonant/vibrant, hollow, woody, muted/veiled, sustained/even, open, and focused/compact. In a third study, 243 participants rated subsets of a group of 34 orchestral instruments using the 20-dimensional model. These ratings were used to generate Timbre Trait Profiles, which serve as the foundation for the orchestration analysis method, for each of these instruments. A computational program is under development (anticipated Feb-March 2020) to generate a semantic orchestration plot given a musical piece as input. The analysis will provide information on how the semantic dimensions of timbre evolve throughout a work, initially using a model that combines Timbre Trait Profiles accordingly from orchestration and employs intensity modifiers based on dynamic indications. In addition to the semantic orchestration plots, I aim to translate musical data into a real-time, animated visual analysis that can be played along with the piece to illustrate dynamic timbral changes resulting from orchestration.

Je présente une méthode d'analyse d'orchestration computationnelle construite à partir d'études empiriques de la sémantique du timbre. Dans le cadre d'entrevues ouvertes, 23 musiciens ont été invités à décrire leur expérience phénoménale des sons de 20 instruments occidentaux. Une analyse du contenu des entrevues transcrites a permis de dégager 77 catégories qualitatives qui sous-tendent les descriptions des musiciens. Dans une deuxième étude, 460 musiciens participants ont évalué des sous-ensembles des mêmes 20 instruments en fonction de ces 77 catégories. Les analyses en composantes principales et les sondages supplémentaires ont produit un modèle final en 20 dimensions de la linguistique cognitive de la qualia du timbre. Les dimensions du modèle sont les suivantes : grondement/faible, doux/chantantant, aqueux/fluide, direct/fort, nasal/rouge, strident/bruit, percussif, pur/clair, cuivré/métallique, râpeux/graineux, sonnant/déclin long, pétillant/éclatant, aérien/respirant, résonant/vif, creux, boisé, muet/voilé, soutenu/même, ouvert et concentré/compact. Dans une troisième étude, 243 participants ont évalué des sous-ensembles d'un groupe de 34 instruments d'orchestre à l'aide du modèle à 20 dimensions. Ces notes ont été utilisées pour générer des Profils de Caractères du timbre, qui servent de base à la méthode d'analyse d'orchestration, pour chacun de ces instruments. Un programme de calcul est en cours d'élaboration (prévu pour février-mars 2020) afin de générer un tracé d'orchestration sémantique à partir d'une pièce musicale. L'analyse fournira des informations sur la façon dont les dimensions sémantiques du timbre évoluent tout au long d'une œuvre, en utilisant d'abord un modèle qui combine les Profils de Caractères du Timbre en fonction de l'orchestration et utilise des modificateurs d'intensité basés sur des indications dynamiques. En plus des intrigues d'orchestration sémantique, je vise à traduire les données musicales en une analyse visuelle animée en temps réel qui peut être jouée avec la pièce pour illustrer les changements dynamiques du timbre résultant de l'orchestration.

BIOGRAPHY
Lindsey is completing her final semester in the doctoral program in music theory at Ohio State University. Her research focuses on timbre semantics and multimodal language; other recent projects deal with multimodal emotional associations in music and dance, instrument-specific absolute pitch, and 17th century harmony. In 2018, Lindsey received the Early Researcher Award from the European Society for the Cognitive Sciences of Music (ESCOM) during the International Conference on Music Perception and Cognition and is co-chair of the upcoming conference to be held in Ohio, May 11-15: "Future Directions of Music Cognition."

Lindsey termine son dernier semestre au sein du doctorat en théorie musicale à l'Université Ohio State. Sa recherche se concentre sur la sémantique du timbre et le langage multimodal; D'autres projets récents traitent des associations d'émotions multimodales dans la musique et la danse, de la hauteur absolue spécifique à un instrument et de l'harmonie du XVIIe siècle. En 2018, Lindsey a reçu le Prix du Chercheur en début de carrière de la part de la European Society for the Cognitive Sciences of Music (ESCOM) pendant la International Conference on Music Perception and Cognition et est co-présidente de la prochaine conférence qui se tiendra dans l'état de l'Ohio du 11 au 15 mai, "Future Directions of Music Cognition".


Marlon Schumacher and Núria Giménez-Comas
Spatial Sculpting: Computer-aided Composition of Spatial Sound Shapes and Textures
Sculpter l'espace : Composition assistée par ordinateur de formes et textures sonores spatiales

Le projet de recherche artistique collaboratif proposé a exploré et développé la notion de synthèse sonore spatiale d'un point de vue artistique et perceptif, en amalgamant véritablement les algorithmes de spatialisation avec les moteurs de synthèse sonore dans une approche musicale intégrale. Du point de vue de la recherche, l'étude des mécanismes de la perception auditive devrait permettre de mieux comprendre comment ces dimensions, pour la plupart séparées sur le plan musical, interagissent et donnent naissance à de nouvelles sensations sonores.
L'exploration de la spatialisation au-delà du concept prévalant de spatialisation des sources sonores, comme les sources étendues (avec extension et formes), les techniques de spatialisation spectrale, ainsi que la notion de "paysage sonore synthétique" dans le sens où l'on travaille avec des densités et des diffusions dans diverses dimensions de synthèse (en fréquence comme dans l'espace). D'un point de vue artistique, on peut considérer que cette approche suit une tradition d'exploitation des principes psychoacoustiques comme modèle musical (par exemple, comme dans l'école spectrale française) afin de créer des compositions sonores et des formes musicales nouvelles - parfois paradoxales -.
À cette fin (comme pour la réalisation technique), la compositrice Nuria Gimenez-Comas a utilisé des descriptions graphiques des densités de masse avec les outils de synthèse et de spatialisation du son dans Open Music.
La contribution de Marlon Schumacher sera consacrée à la recherche et au développement de nouveaux outils fondés sur des mécanismes cognitifs étudiés dans le domaine de la perception auditive spatiale et de l'analyse de scène, plus précisément le cadre OMChroma/OMPrisma, qui combine des modèles de synthèse/spatialisation, le traitement perceptif et les effets de salle.
Le nouveau cadre de traitement du son des outils présentés permet de construire des graphiques dsp complexes - directement dans l'environnement de composition -. Cela étend le processus de composition à une "lutherie" ou une "orchestration" virtuelle, brouillant les lignes entre le matériel musical et les instruments. Le cadre offre la possibilité de concevoir des contrôles pour des attributs spatiaux de plus haut niveau, tels que la diffusion, la netteté, la définition, etc.
Concrètement, nous proposons de combiner des systèmes de spatialisation dans une configuration de haut-parleurs peu orthodoxe pour synthétiser un large spectre d'"objets sonores spatiaux" allant de sources sonores proches à des textures ou des ambiances lointaines, que l'auditeur est libre d'explorer et d'apprécier individuellement.
L'idée est de créer non seulement la sensation de sources sonores données projetées dans l'espace, mais aussi de multiples morphologies sonores spatiales autour et au sein du public, c'est-à-dire se densifiant, dans différentes couches sonores émergentes.

The proposed collaborative artistic research project has explored and developed the notion of spatial sound synthesis from artistic and perceptual viewpoints, truly amalgamating spatialization algorithms with sound synthesis engines according to an integral musical idea or approach. From a research viewpoint, the study of the mechanics of auditory perception should help to gain a better understanding of how these -musically mostly separated- dimensions interact and give rise to & evoke novel sound sensations.
Exploring spatialization beyond the prevalent concept of sound source spatialization, such as extended sources (with extension and shapes), spectral spatialization techniques, also the notion of a "synthetic-soundscape" in the sense of working with densities and distributions in various synthesis dimensions (in frequency as well as in space). From an artistic perspective, this approach can be seen as following a tradition of exploiting psychoacoustic principles as a musical model (e.g. as in the french spectral school) in order to create novel -sometimes paradoxical- sound compositions and musical forms.
To this end (as for the technical realization), composer Nuria Gimenez-Comas has used graphical descriptions of mass densities with the sound synthesis and spatialisation tools in Open Music.
Marlon Schumacher's contribution will be dedicated to r&d of new tools informed by cognitive mechanisms studied in spatial auditory perception and scene analysis. more precisely the OMChroma/OMPrisma framework, combining synthesis/spatializationmodels, perceptual processing, and room effects.
The novel sound-processing framework of the presented tools allows building complex dsp-graphs -directly in the composition environment-. This extends the compositional process to a virtual “lutherie” or “orchestration”, blurring the lines between musical material and instruments. The framework provides the possibility of designing controls for higher-level spatial attributes, such as diffusion, sharpness, definition, etc.
Concretely, we propose combining spatialization systems in an unorthodox loudspeaker setup (see technical rider) to synthesize a broad spectrum of “spatial sound objects” ranging from close-proximity sound sources to distant textures or ambiances, which the listener is free to individually explore and appreciate.
The idea is to create not only the sensation of given sound sources projected into space but multiple spatial sound morphologies around and within the audience, that is densifying-increasing, in different emerging sound layers.

BIOGRAPHY
Núria Giménez-Comas studied composition in Barcelona two years with Christophe Havel and one year with Mauricio Sotelo. After one year of exchange in Geneva she continues her studies of Mixt Composition Master at HEM of Geneva with Michael Jarrell, Luis Naon and Eric Daubresse. Her instrumental and mixt pieces have been played by musicians as Klangforum Wien, Ensemble Contrechamps, Brussels Philarmonic, Diotima Quartet, Anssi Karttunen. Highly interested in mixt composition she has realized Cursus 1 and Cursus 2 at Ircam.
She has received commissions from different musicians, orchestras and institutions, as Radio France, Grame-Ircam receiving support several times of French Culture Ministry and INAEM (Institut of Performing Arts), and she has collaborated with other artists as the actor Lambert Wilson and the writer Laure Gauthier.
She has been laureate in different prizes as Colegio de España (Paris)-INAEM Prize, First Prize of International Competition Edison Denisov.

Marlon Schumacher has a multidisciplinary academic background, with pedagogical and artistic degrees in music theory, digital media and composition (under the direction of Marco Stroppa) from UMPA Stuttgart, and a PhD in music technology from McGill University (co-supervised by Ircam). His main research topics are spatial sound perception/synthesis, computer-aided composition and musical interaction; he has contributed in this field through scientific publications, academic services, several versions of open source software and artistic/research projects. Marlon Schumacher is an active performer/composer who creates works for a wide variety of media and formats, including instrumental and intermedia pieces, crowd performances and installations. He currently works as a professor of music informatics at the Institute for Music Informatics and Musicology at the Karlsruhe University of Music, where he has organized a series of international conferences and established research laboratories as director of ComputerStudio. He is an associate member of CIRMMT, IDMIL, the RepMuS team, and an organizing member of the annual Music and Sound Arts Conference (MUSA).

Núria Giménez-Comas a étudié la composition à Barcelone pendant deux ans avec Christophe Havel et un an avec Mauricio Sotelo. Après un an d'échange à Genève, elle poursuit ses études de Master de composition mixte à la HEM de Genève avec Michael Jarrell, Luis Naon et Eric Daubresse. Ses pièces instrumentales et mixtes ont été jouées par des musiciens comme le Klangforum Wien, l'Ensemble Contrechamps, le Brussels Philarmonic, le Diotima Quartet, Anssi Karttunen. Très intéressée par la composition mixte, elle a réalisé des Cursus 1 et 2 à l'Ircam.
Elle a reçu des commandes de différents musiciens, orchestres et institutions, comme Radio France, Grame-Ircam qui a reçu plusieurs fois le soutien du Ministère de la Culture et de l'INAEM (Institut des Arts du Spectacle), et elle a collaboré avec d'autres artistes comme l'acteur Lambert Wilson et l'écrivain Laure Gauthier.
Elle a été lauréate de différents prix comme le prix Colegio de España (Paris)-INAEM, le premier prix du concours international Edison Denisov.

Marlon Schumacher a une formation universitaire pluridisciplinaire, avec des diplômes pédagogiques et artistiques en théorie musicale, médias numériques et composition (sous la direction de Marco Stroppa) de l'UMPA Stuttgart, et un doctorat en technologie musicale de l'Université McGill (co-supervisé par l'Ircam). Ses principaux sujets de recherche sont la perception/synthèse spatiale du son, la composition assistée par ordinateur et l'interaction musicale ; il a contribué dans ce domaine par des publications scientifiques, des services universitaires, plusieurs versions de logiciels libres et des projets artistiques/de recherche. Marlon Schumacher est un interprète/compositeur actif qui crée des œuvres pour une grande variété de médias et de formats, y compris des pièces instrumentales et intermédias, des performances de foule et des installations. Il travaille actuellement comme professeur d'informatique musicale à l'Institut d'informatique musicale et de musicologie de l'Université de musique de Karlsruhe, où il a organisé une série de conférences internationales et créé des laboratoires de recherche en tant que directeur du ComputerStudio. Il est membre associé du CIRMMT, de l'IDMIL, de l'équipe RepMuS, et membre organisateur de la conférence annuelle sur la musique et les arts sonores (MUSA).


Nadine Schütz (Artistic Residency IRCAM)
Land Sound Design
vidéo / video

À la manière d’une interprète environnementale, je poursuis une approche de composition urbaine et paysagère in situ en faisant évoluer les qualités acoustiques et ambiances sonores données d’un site. L’espace et le lieu sont explorés comme une partition créatrice qui informe et dirige sa propre transformation.
Cette présentation expose les questions artistiques et méthodologiques qui stimulent mes recherches menées en collaboration avec l’IRCAM, notamment l’équipe EAC, et en échange avec les équipes PDS et S3AM. Espace et lieu sont autant le départ que la destination de mes créations. Mais les principes fondamentaux de la perception auditive guident également l'orchestration sonore de l'environnement. Les outils de spatialisation jouent un rôle important dans ce processus. Ils permettent d'abord d'importer au studio les caractéristiques acoustiques d’un site. L'environnement sonore est alors modélisé. La composition du projet s'inscrit dans cet environnement virtuel et génère une nouvelle matière sonore contextualisée.

Like an environmental interpreter, I pursue an approach of in situ urban and landscape composition by developing the acoustic qualities and sound ambiances provided by a site. Space and place are explored as a creative score that informs and directs its own transformation. This presentation exposes the artistic and methodological questions that stimulate my research conducted in collaboration with IRCAM, notably the Acoustic and Cognitive Spaces team, and in exchange with the Perception and Sound Design and Sound Systems and Signals: Audio/Acoustics, InstruMents teams. Space and place are as much the departure as the destination of my creations. But the fundamental principles of auditory perception also guide the sound orchestration of the environment. Spatialization tools play an important role in this process. First of all, they allow the acoustic characteristics of a site to be imported into the studio. The sound environment is then modeled. The composition of the project is part of this virtual environment and generates a new contextualized sound material.

Composing with Echoes
Espace et lieux sont décryptés comme on déchiffre une partition.
Cette approche guide mon travail sur le son. Le Jardin des Réflexions, projet en cours pour la Place de la Défense, donne lieu à de nouvelles expérimentations. Les modèles acoustiques de cette intervention sonore et plastique in situ ont permis une suite évolutive de compositions, toujours liées au lieu d'origine, mais qui développent également une autonomie d'œuvre.
Cette démo focalise sur l’exploitation compositrice des réponses impulsionnelles HOA enregistrées in situ. La combinaison des différentes mesures depuis différents positionnement de la source et du microphone définit un registre spatial pour les scènes imaginaires. En isolant leurs caractéristiques spatio-temporelles et spectrales, ces empreintes acoustiques structurent une orchestration spatiale et tonale, toujours imprégnée de l’esprit acoustique du lieu. L’espace acoustique se transforme en un instrument de composition.

Space and places are decrypted in the same way one deciphers a score.
This approach guides my work on sound. The Jardin des Réflexions, an ongoing project for the Place de la Défense, gives rise to new experiments. The acoustic models of this sound and physical intervention have resulted in an evolutionary series of compositions, always linked to the place of origin, but which also develop the autonomy of each piece.
This demo focuses on the composer's exploitation of the impulse responses recorded in situ. The combination of different measures from different source and microphone positions defines a spatial register for imaginary scenes. By isolating their spatio-temporal and spectral characteristics, these acoustic imprints structure a spatial and tonal orchestration, always imbued with the acoustic spirit of the place. Acoustic space becomes an instrument of composition.

BIOGRAPHY
Nadine Schütz (((Echora))) se présente comme architecte du son, ou interprète environnementale. S’appuyant sur une recherche à la fois théorique et poétique, elle explore l’espace sonore à travers des compositions, performances, installations et ambiances qui mettent en relation l'espace et l'écoute, le paysage et la musique, l’urbain et l’humain.
Ses œuvres ont été présentées à Zurich, Venise, Naples, New York, Moscou, Tokyo et Kyoto. Parmi ses projets en cours, un dispositif sonore pour le parvis du TGI à Paris, des instruments élémentaires pour le Franchissement Urbain Pleyel à Saint-Denis, et le Jardin des Réflexions pour la Place de La Défense rénovée.
Pendant quatre ans elle a dirigé le laboratoire multimédia de l’institut du paysage à l'EPF/ETH Zurich, où elle a installé un nouveau studio pour la simulation spatiale des paysages sonores, lors de son doctorat Cultivating Sound finalisé en 2017. Actuellement elle est compositrice invitée à l‘IRCAM au Centre Pompidou Paris.
www.echora.ch

Nadine Schütz (((Echora))) presents herself as a sound architect, or environmental interpreter. Relying on both theoretical and poetic research, she explores sonic  space through compositions, performances, installations and ambiences that connect space and listening, landscape and music, urban and human. Her works have been presented in Zurich, Venice, Naples, New York, Moscow, Tokyo and Kyoto. Among his current projects, a sound device for the forecourt of the TGI in Paris, elementary instruments for the Pleyel Urban Crossing in Saint-Denis, and the Jardin des Réflexions for the renovated Place de La Défense.
For four years she directed the multimedia laboratory of the Landscape Institute at EPF/ETH Zurich, where she installed a new studio for the spatial simulation of soundscapes, during her PhD, Cultivating Sound, finalized in 2017. Currently she is a guest composer at IRCAM at the Centre Pompidou Paris.
www.echora.ch


Christopher Trapani
L'orchestre augmenté: Spinning in Infinity
The augmented orchestra: Spinning in Infinity
vidéo / video

Spinning in Infinity (written for Festival Présences 2015, RIM: Greg Beller) presents a unique approach to spatialization and orchestration. A spatialized array of 12 loudspeakers is embedded in the orchestra to produce a fusion between electronic and acoustic sounds. The capabilities of acoustic instruments are enhanced by a complementary microtonal backdrop that fuses with the onstage players. These kaleidoscopic orchestrations are developed using concatenative synthesis; samples are chosen and retuned in real-time to create a kind of sonic color wheel, with 2-dimensional spiral-shaped trips through timbre space in CataRT—between brass and winds, for example, or between bright and dull, pitch and noise...
These reworked excerpts are then synchronized with the orchestra using the adaptive tempo-tracking of Antescofo, creating a sort of augmented orchestra whose dimensions are in constant flux: a dozen microtonal flutes can appear from nowhere, replaced the next second by a brass choir shaded by an unreal arsenal of mutes, or a peal of chimes triggered by a single live percussionist—waves of color in constant motion…

Spinning in Infinity (RIM: Greg Beller), créée à la Maison de la Radio en février 2015, représente une approche singulière à la spatialisation et l'orchestration. Un dispositif de douze haut-parleurs sur scène, intégrés parmi les instrumentistes, sert à fusionner l’acoustique et l’électronique. L’électronique sert à augmenter l’orchestre avec des sons qui pousse au-delà des limites de l’interpretation instrumentale, créant un fond microtonal qui fusionne de façon credible avec l’orchestre. Instrumentations kaléidoscopiques façonnés avec la synthèse concatenative, avec des échantillons choisis et ré-accordés en temps réel, servent à créer une espèce de cercle chromatique sonore, balades en forme spirale traduit en espace timbrale avec CataRT — entre bois et cuivres, entre terne et brillant, ou entre bruit et hauteur — renvoyés à leur tour au dispositif de spatialisation sur scène.
Le résultat, synchronisé avec l'orchestre grâce au suivi de tempo fourni par Antescofo, crée l'impression d’un orchestre augmenté, à formation variable; une dizaine de flûtes pourrait apparaitre, remplacé dans le moment qui suit par un choeur microtonal de cuivres nuancés par plusieurs types de sourdines, ou un courant ondulé de tintements déclenché par un seul percussionniste sur scène—ondes et patterns en mouvement constant, convergeant ou divergeant, vectors vers l’infini.

BIOGRAPHY
The American/Italian composer Christopher Trapani was born in New Orleans, Louisiana. He earned a Bachelor’s degree from Harvard, a Master’s degree at the Royal College of Music, and a doctorate from Columbia University. He spent a year in Istanbul on a Fulbright grant, studying microtonality in Ottoman music, and nearly seven years in Paris, including several working at IRCAM.
Christopher’s honors include the 2016-17 Rome Prize, a 2019 Guggenheim Fellowship, and the 2007 Gaudeamus Prize. He has received commissions from the From Foundation (2019), the Koussevitzky Foundation (2018), and Chamber Music America (2015). His debut CD Waterlines was released on New Focus Recordings in 2018.
For more information, please visit www.christophertrapani.com.

Le compositeur américain et italien Christopher Trapani est né à la Nouvelle Orléans en Louisiane. Il est titulaire d'un baccalauréat de Harvard, d'une maîtrise du Royal College of Music et d'un doctorat à l'Université Columbia. Il a passé un an à Istanbul grâce à une bourse Fulbright, étudiant la microtonalité de la musique ottomane, et près de sept ans à Paris, dont plusieurs au sein de l'IRCAM.
Christopher a reçu le Prix de Rome 2016-17, une bourse Guggenheim 2019 et le Prix Gaudeamus 2007. Il a reçu des commandes de la From Foundation (2019), de la Koussevitzky Foundation (2018) et de Chamber Music America (2015). Son premier CD, Waterlines, est sorti sur New Focus Recordings en 2018. Pour plus de renseignements, veuillez consulter www.christophertrapani.com.


Roxanne Turcotte (CMCQ SMCQ)
Les oiseaux de Nias
The Birds of Nias
vidéo / video

Étude sonore comportementale et comparative du fonctionnement des oiseaux en société et les conséquences de la déshumanisation de l’homme vouée à son autodestruction, un désordre universel. La diminution de la biodiversité d’ici jusqu’à l’ile de Nias, témoignent de l’incrédulité humaine et des gouvernements climatosceptiques. L’extinction graduelle des espèces animales causée par le pouvoir industriel sans limites et les batailles idéologiques, font en sorte que des petits groupes d’individus dissidents, émergent des populations en révolte. Ceci est un appel à la liberté et à la sauvegarde de notre espace vital.

A behavioural and comparative sound study of the functioning of birds in society and the consequences of the dehumanization of mankind devoted to its self-destruction, a universal disorder. The decrease in biodiversity from here to Nias Island, testifies to the disbelief of humans and climate-sceptic governments. The gradual extinction of animal species caused by the unlimited industrial power and ideological battles, make small groups of dissident individuals emerge from the revolting populations. This is a call to freedom and to safeguard our living space.

BIOGRAPHY
Active comme compositrice et designer sonore depuis 1980, Turcotte a construit son esthétique autour d'un art cinématographique d'intégration, de musique acousmatique et immersive. Elle est invitée à siéger comme jurys de composition, et elle donne régulièrement des formations et des ateliers de composition. Turcotte a reçu des subventions du Conseil des Arts du Canada (CAC) et du Conseil des arts et des lettres du Québec (CALQ). La musique de Roxanne Turcotte a remporté de nombreux prix et distinctions aux États-Unis, en 1987 et en 1989, ainsi que des nominations (LCL, en nomination pour les Journées mondiales de la musique d'Oslo, en 1990), Hugh Le Caine (Canada, 1985, 1989), Luigi Russolo (Italie, 1989), 6e Concours d'art radiophonique (La France, 2005), Bourges (France). Ses œuvres électroacoustiques ont été programmées par plusieurs événements : Florida Electroacoustic Music Festival (1996), Montréal en lumière (2000), Bourges (2003), Perpignan (2000), Futura (2006), Marseille (2002), Barcelone (2004), Genève (2005), Akousma, 16 pistes (Bestiaire), Aix-en-Provence (2007), Edmonton (2014), Montpellier (Festival Klang, 2017), Festival MNM 2019".

Active as a composer and sound designer since 1980, Turcotte has built her aesthetics around a cinematic art of integration, acousmatic and immersive music. She is invited to sit on composition juries, and she regularly gives training and composition workshops. Turcotte has received grants from the Canada Council for the Arts (CCA) and the Conseil des arts et des lettres du Québec (CALQ). Roxanne Turcotte's music has won numerous awards and distinctions in the United States, in 1987 and 1989, as well as nominations (LCL, nominated for World Music Days in Oslo, 1990), Hugh Le Caine (Canada, 1985, 1989), Luigi Russolo (Italy, 1989), 6th Radio Art Competition (La France, 2005), Bourges (France). His electroacoustic works have been programmed by several events : Florida Electroacoustic Music Festival (1996), Montréal en lumière (2000), Bourges (2003), Perpignan (2000), Futura (2006), Marseille (2002), Barcelona (2004), Geneva (2005), Akousma, 16 tracks (Bestiaire), Aix-en-Provence (2007), Edmonton (2014), Montpellier (Festival Klang, 2017), Festival MNM 2019".


Marcel Zaes (Brown University)
#otherbeats: Resisting the Grid — Performing Asynchrony
#otherbeats : Résistance à la grille - Exécution d'une asynchronie
vidéo / video

Much of today’s music builds on mechanized forms of timekeeping, such as the metronome, drum machine, or the visual grid in any contemporary music app. As my dissertation piece at Brown University, I made “#otherbeats.” It is an experimental web audio piece that challenges the idea of the binary between human- and machine-made time grids. For “#otherbeats,” I asked 50 participants from around the globe to record for me their idiosyncratic versions of time grids. All these collected recordings—an oral history about timekeeping—are curated and made audible on a website. Users can navigate, play and live mix the archive as a musical composition at https://otherbeats.net. “#otherbeats” is ambiguous in several ways: it is a piece about mechanical time grids, but it does not directly use them. It is about rhythmic regularity as much as it is about deviance and defiance. It is an instrument as much as a composition, and it is human as much as machinic. It is a network of sound, as much as a collection of seemingly unconnected sounds. As a piece, in its qualities of “mixing” and in its visual aesthetics, it references musical undergrounds that are heavily based on mechanized timekeepers, such as the queer African diasporic Chicago house of the late 1970s. “#otherbeats” thereby acknowledges how deeply rhythm-making, including in experimental musical cultures, is indebted to these scenes and pays tribute to them. This piece is an invitation to think about alternate temporalities in electronic music.
In my presentation, I will present and discuss an excerpt of “#otherbeats,” the technicalities that lie at its base (in-browser sound processing with the Web Audio API), and the sociopolitical theory that is embedded in it.

Une grande partie de la musique actuelle s'appuie sur des formes mécanisées de chronométrage, telles que le métronome, la boîte à rythmes ou la grille visuelle de toute application de musique contemporaine. Dans le cadre de ma thèse à l'université de Brown, j'ai réalisé "#otherbeats », morceau audio expérimental sur le web qui remet en question l'idée du binaire entre les grilles de temps homme-machine. Pour "#otherbeats", j'ai demandé à 50 participants du monde entier d'enregistrer leurs versions idiosyncrasiques des grilles de temps. Tous ces enregistrements collectés - une histoire orale sur le chronométrage - sont conservés et rendus audibles sur un site web. Les utilisateurs peuvent naviguer, jouer et mixer en direct les archives sous forme de composition musicale sur le site https://otherbeats.net. "#otherbeats" est ambigu à plusieurs égards : il s'agit d'une pièce sur les grilles de temps mécaniques, mais elle ne les utilise pas directement. Elle traite de la régularité rythmique ainsi que de la déviance et du défi. C'est un instrument autant qu'une composition, et c'est humain autant que machinique. C'est un réseau de sons ainsi qu'une collection de sons apparemment sans lien entre eux. En tant que pièce, dans ses qualités de "mixage" et dans son esthétique visuelle, elle fait référence à des undergrounds musicaux fortement basés sur des chronométreurs mécanisés, comme la diaspora African Queer de la house de Chicago de la fin des années 1970. "#otherbeats" reconnaît ainsi à quel point la rythmique, y compris dans la culture des musicales expérimentales, est redevable à ces scènes et leur rend hommage. Cette pièce est une invitation à réfléchir sur les temporalités alternatives dans la musique électronique.
Dans mon exposé, je présenterai un extrait de "#otherbeats », et discuterai les aspects techniques qui en sont à la base (traitement du son dans le navigateur avec l'API audio Web), et la théorie sociopolitique qui y est intégrée.

BIOGRAPHY
Marcel Zaes (b. 1984), is an artist and artistic researcher. Currently, he is pursuing his Ph.D. in Music & Multimedia Composition at Brown University. Marcel investigates mechanical time with an interdisciplinary framework. His creative practice consists of assemblages of self-made software code that acts as mechanical timekeeper and human performers who they play «against», thereby creating an affective potential to re-think the gap between what is conceived of as «human» versus what is conceived of as «mechanical» temporality. Marcel’s work has most recently been performed and exhibited at ISEA Hong Kong, the Center for New Music San Francisco, the Biennial of Contemporary Arts Lisbon, Cabaret Voltaire Zurich, Columbia University in New York, Dampfzentrale Bern, and at Fridman Gallery New York. www.marcelzaes.com

Marcel Zaes (né en 1984), est un artiste et chercheur artistique. Il poursuit actuellement son doctorat en musique et en composition multimédia à l'université de Brown. Marcel étudie le temps mécanique dans un cadre interdisciplinaire. Sa pratique créative consiste en des assemblages de codes logiciels créés sur mesure qui agissent comme des chronométreurs mécaniques et des interprètes humains contre lesquels ils jouent, créant ainsi un potentiel affectif pour repenser l'écart entre ce qui est conçu comme "humain" et ce qui est conçu comme une temporalité "mécanique". Le travail de Marcel a été récemment joué et exposé à l'ISEA de Hong Kong, au Center for New Music de San Francisco, à la Biennale d'art contemporain de Lisbonne, au Cabaret Voltaire de Zurich, à l'Université Columbia de New York, à la Dampfzentrale de Berne et à la Fridman Gallery de New York. www.marcelzaes.com


Tiange Zhou (UC San Diego)
LUX FLUX: Design sound and light work in Max/Msp through DMX
LUX FLUX : Conception de travaux de sonorisation et d'éclairage en Max/Msp avec DMX
vidéo / video

When musicians talk about interactive audio-visual creations in recent years, most of the time, they are mentioning how sound could impact the parameters of the video components. It is easy to ignore that lighting design has been alongside live music performance since the beginning of theatre history. The nature of light is more close to the sound, in which they both have abstractive characters and could be able to carry artistic continuity with having a specific narrative aspect. Musicians often use light terminologies to indicate sound, such as bright, dim, colorful, pale, shadow, etc., because of their similarities.
On the other hand, it should also be exciting to compose lighting events with music through the time by applying sound designing methodologies.
In this demonstration, I will share how to make intriguing lighting designs by Max/MSP programming through a USB to DMX interface. I will share several easy learning Max patches for audiences to understand the primary methods and utilization of lighting design and interactivity with the audio signal processing. I will present my audio-lighting work Sexet during the demo by using six LED lights as a chamber ensemble.
DMX is a lighting control protocol that allows users to have ultimate control over their lighting needs. The technology to access this protocol is very close to MIDI controlling. Therefore, it is very convenient to use MAX/MSP to program exciting creative works.

Lorsque les musiciens parlent de créations audiovisuelles interactives au cours des dernières années, la plupart du temps, ils mentionnent l'impact que le son pourrait avoir sur les paramètres des composantes vidéo. Il est facile d'ignorer que la conception de l'éclairage s'est faite parallèlement à la performance musicale en direct depuis le début de l'histoire du théâtre. La nature de la lumière est plus proche du son, dans lequel ils ont tous deux des caractères abstraits et pourraient porter une continuité artistique avec un aspect narratif spécifique. Les musiciens utilisent souvent des terminologies légères pour indiquer les sons, tels que clairs, sombres, colorés, pâles, ombragés, etc.
D'autre part, il devrait également être passionnant de composer des événements lumineux avec de la musique, à travers le temps en appliquant des méthodologies de conception sonore.
Dans cette démonstration, je montrerai comment réaliser des conceptions d'éclairage intrigantes par programmation Max/MSP via une interface USB vers DMX. Je partagerai plusieurs patchs Max faciles à apprendre pour que le public comprenne les méthodes principales et l'utilisation du design d’éclairage et de l'interactivité avec le traitement du signal audio. Je présenterai mon travail d'éclairage audio Sexet pendant la démo en utilisant six lumières LED comme ensemble de chambre.
DMX est un protocole de contrôle de l'éclairage qui permet aux utilisateurs d'avoir un contrôle ultime sur leurs besoins en éclairage. La technologie d'accès à ce protocole est très proche du contrôle MIDI. Il est donc très pratique d'utiliser MAX/MSP pour programmer des œuvres de création passionnantes.

BIOGRAPHY
Born in China in 1990, Tiange Zhou is a composer, photographer, designer, and improvisational dancer. She is interested in interactive audiovisual art and other integrated art forms. Tiange's music receives performances by musicians from Mivos Quartet, I.C.E., S.E.M. Ensemble, Phillip Glass Ensemble, Yale Camerata, Neue Vocalsolisten, Sandbox Ensemble, Talujon Ensemble, Third Coast Percussion, Loadbang, Yale Philharmonia and Albany Symphony. Besides receiving the Baumgardner Fellowship for the residence composer in the Norfolk chamber music festival 2016, Tiange's work - Lament for Adonis was a finalist for the American Prize in the chorus music division and collected by American classical radio station WQXR. Her chamber work hEArT won the first prize of Kirkos Kammer International Composition Competition in Ireland. And her solo violin piece A Mirror for a Dream was chosen as one of the contemporary pieces for the Musical Summer Malaga 2016 6th International Solo Violin Competition. She is also invited as a speaker to present her music at Ircam Forum Shanghai 2019.
Tiange is pursuing her Ph.D. in composition at the University of California, San Diego, where she studies with Prof. Roger Reynolds for composition. She completed her master's degree at Yale University and a Bachelor's degree at Manhattan School of Music. She also completed an exchange program at Staatliche Hochschule für Musik und Darstellende Kunst, Stuttgart.
Besides concert music, Tiange participates in numerous collaborative projects with artists and scientists in different genres. She has done several projects about contemporary social psychological dilemmas, which she concerns.

Née en Chine en 1990, Tiange Zhou est une compositrice, photographe, designer et danseuse improvisatrice. Elle s'intéresse à l'art audiovisuel interactif et à d'autres formes d'art intégrées. La musique de Tiange est interprétée par des musiciens du Mivos Quartet, I.C.E., S.E.M. Ensemble, Phillip Glass Ensemble, Yale Camerata, Neue Vocalsolisten, Sandbox Ensemble, Talujon Ensemble, Third Coast Percussion, Loadbang, Yale Philharmonia et Albany Symphony. En plus d'avoir reçu la bourse Baumgardner en tant que compositrice en résidence du festival de musique de chambre de Norfolk 2016, l'œuvre de Tiange - Lament for Adonis a été finaliste pour le prix américain dans la catégorie musique chorale et collectionnée par la station de radio classique américaine WQXR. Sa musique de chambre hEArT a remporté le premier prix du Kirkos Kammer International Composition Competition en Irlande. Et sa pièce pour violon solo A Mirror for a Dream a été choisie comme l'une des pièces contemporaines du 6ème Concours International de Violon Solo Musical Summer Malaga 2016. Elle fût également invitée comme conférencière pour présenter son travail au Forum Ircam à Shanghai en 2019.
Tiange poursuit son doctorat en composition à l'Université de Californie, San Diego, où elle étudie avec le professeur Roger Reynolds sur la composition. Elle a obtenu une maîtrise à l'Université Yale et un baccalauréat à la Manhattan School of Music. Elle a également suivi un programme d'échange à la Staatliche Hochschule für Musik und Darstellende Kunst, Stuttgart.
Outre la musique de concert, Tiange participe à de nombreux projets de collaboration avec des artistes et des scientifiques de différents genres. Elle a réalisé plusieurs projets sur les dilemmes psychologiques sociaux contemporains qui l’occupe.