View allAll Photos Tagged datamining

Under the guise of environmentalism and conservation the powers that be want to tokenize everything, including nature. They want to “monitor, preserve, and enhance the natural world.” Just like they plan to enhance (control) humans through transhumanism, they plan to enhance (control) nature. They want to enslave both man and nature.

 

These elitists want to integrate blockchain technology into nature and market it as biodiversity conservation. They not only want to build the Internet of Bodies (people), but also the Internet of Forests (nature). They want everything to become part of the Internet of Things. They want to connect every living thing to artificial intelligence. This trans-human-ism and trans-nature-ism would commoditize every living thing. It would be the merging of man and machine; it would be the merging of nature and machine. It would be “a world where virtually everyone and everything is intelligently connected.” Dystopia anyone?

 

They are marketing this tokenization of nature as “an effort to minimize negative impacts on ecosystems and species.” Snake oil anyone? If they tokenize nature, they can use nature as a financial instrument. They can then sell green bonds and derivatives based on biodiversity data. This data would be gathered via sensors, drone fleets (“swarm intelligence drones”), and satellites. Thus all the species of the forest would be monitored and data mined. They want to build an “AI-driven neural network for our planet.” They want a global AI network that monitors everyone and everything in real-time.

 

This system will require datafication of biodiversity. This means that they will need to create digital representations of all species and all ecosystems on earth. They want to commoditize everything. “Almost every core function in financial services will be transformed.” It’s good for the planet and good for business…buhahaha!

 

The scam: Carbon Markets! “Carbon markets are critical in helping the world attain net-zero greenhouse-gas emissions.” Carbon markets revolve around the buying and selling of carbon credits. These credits allow the buyer to emit a certain amount of pollution. “Carbon justice for all!”

 

“Carbon markets can be a powerful tool to help advance carbon justice.” – United Nations

 

Carbon trading was first introduced as part of the 1997 Kyoto Protocol. The Kyoto Protocol’s carbon trading system was a major step towards establishing a global market for carbon emissions. The Kyoto Protocol was adopted as the first addition to the United Nations Framework Convention on Climate Change. The Kyoto Protocol has since been replaced by the Paris Agreement.

 

The globalists have also been talking about “carbon emissions trading schemes under which emissions credits would be allocated to adult individuals.” To bring about a personal carbon market scheme, they must introduce digital IDs and central bank digital currencies. Then they can introduce a Chinese-style social credit score system. They will tie your “carbon footprint” to your social credit score. Therefore, you’ll own nothing, and you’ll happily eat your bugs. You won’t have enough money to buy a carbon credit to leave your 15-minute city neighbourhood prison. But then again, climate lockdowns! By the way: you may want to breathe less, because they will carbon tax your every breath.

 

The carbon market is being introduced through public-private partnerships, which adhere to the Sustainable Development Goals of the United Nations. A low-carbon economy: degrowth. Degrowth is synonymous with poverty and depopulation.

 

Eventually, they will install a world leader over their new world order. Each individual will have to take this leader’s Mark (blockchain technology) in order to participate in his new world economic order. No one will be able to buy or sell unless they take his transhuman technology—the merging of man and Beast. If they receive his Mark, they will become one with the Beast’s AI-driven neural network. The public persona of this Skynet system will be the Image of the Beast. Those who refuse to take the Mark of the Beast and worship his Image will be enemies of the new world state. All such people will be hunted down and terminated—hasta la vista, baby. The new world surveillance state: you can run, but you can’t hide!

 

2 Timothy 3:1 “This know also, that in the last days perilous times will come.”

 

Now, for one of my favourite verses:

 

Psalm 42:1 “As the deer pants for streams of water, so my soul longs after You, O God.”

  

 

October 2010 Flickr Hive Mind is moving to its own domain, flickhivemind.net.

 

September 2010 Flickr Hive Mind now supports user preferences for screen color, photo viewer, and more.

 

July 2010 - Flickr Hive Mind is now using the new Flickr Lightbox to display photos from their links - enjoy!

 

(Older)

 

Sorry not to be posting recently, but I have been coding up a Flickr photo mining tool I hope you will like. There's lots to do yet, but I think it's ready for a beta test:

 

flickrhivemind.net

 

What can you do right now?

 

Search and display photos, with thumbnails up to 250x250, by Tags, Text, Username, Recentness, or Explore.

 

Retrieve up to 500 results at a time - little or no paging, as long as your computer can deal with it and flickr doesn't revoke my API keys.

 

Todo list:

a) No authentication yet, so this will only find public photos. DONE

b) No searching of contacts or favorites yet. COMPLETE

c) I want to add a license filter you can retrieve only photos that offer certain license terms.COMPLETE

d) It will be easy to add intelligent reading of date formats people type in, but that's not there yet... COMPLETE

  

This tool is dedicated to AnnuskA Hjärta and her Flickritis.

 

Also thanks to Flickr Leech for inspiration.

A drawing inspired by Imogen Heaps song 'Lifeline'.

Data Mining Sculpture By L N Tallur displayed in the Museum of Art and Photography in Bengaluru.

Can't believe I missed Data Privacy Day (January 28) again! But here's a reminder - to protect & safeguard our private data & that of our children too... This is my 'Tiny big DATA by Su_G' in an Isobar Wallpaper mockup (c/o Roostery)

 

Words to live by for 'big DATA' lovers, & wallpaper heaven in a gradient! The word "DATA" fades in & out in a black to pale gray gradient - with a tiny "big" appearing just at the palest point. Looks terrific as wallpaper - for a tiny-BIG impression.

Line art.

© Su Schaefer 2017

 

See 'Tiny big DATA by Su_G' as fabric @ Spoonflower, or - even better! - 'Tiny big DATA by Su_G' as commercial-grade wallpaper (and other interior decor items) @ Roostery.

 

'BIG DATA... by Su_G' is a related design while 'big blue' data fans may prefer 'DATA, bright-dark-bright blue... '.

 

[2Tiny big DATA by Su_G_Isobar Wallpaper_Roostery-mockup]

Detail expositie Lange Voorhout 2013

In photoshop Cropped and converted in B/W, vignetted and selectively blurred. Camera Nikon D90, Sigma 8 mm

Some Haiku Notes:

~~~~~~~~~~~~~~~~~~~~~~~~~

Started with the wheel

evolution of mankind

will there be no end?

~~~~~~~~~~~~~~~~~~~~~~~~~

Not until the end

of all mankind here on earth;

then we'll start over.

~~~~~~~~~~~~~~~~~~~~~~~~~

I see the future.

Moving towards AGI,

with major control

===================================================

-:- ( 1 ) - ( 2 ) - ( 3 ) - ( 2X5 ) - ( 6 ) - ( 7 ) - ( 8 ) - ( 9 ) - (2X10) -:-

===================================================

www.flickr.com/photos/buddhadog/53006299020

At Google this weekend. Seeing a CMU telepresence robot now.

 

Some details from the scifoo Wiki:

 

I'd like to discuss an idea I'm formulating to improve climate modeling called "Global Swarming." The core idea is to deploy tens of thousands of ocean probes by leveraging the creative smarts and logistics coordination of the web.

 

As someone who served as an expert witness in the Dover "Intelligent Design" trial, and who has worked in the "creation-evolution" arena for a long time, if there is any interest I would be happy to run a session on "What happens post-Dover?" What will be the next wave of anti-evolutionism and anti-science? What needs to be done to combat it and raise the American public's awareness of the evidence for evolution? Why is this issue critical to the success of basic research in this country? How do scientists, educators, and tech folks fit in?

 

I'd like to brainstorm about programmable matter ProgrammableMatter. Programmable matter is any substance which can be programmed to change its shape or physical properties. We are currently working on constructing programmable matter and investigating how to program it. I would be most interested in talking about how one might program ensembles.

 

I’d like to present on OpenWetWare, a wiki promoting open research among biologists and biological engineers. With 65 labs and 1200 users on OpenWetWare, I can provide practical examples of how scientists are currently making use of the web(2.0) to support research and education in new ways. I’ll also talk about where the site is headed in the future, and how foocampers could help make it easier for scientists to share more of their secrets online.

 

I'll bring a memory stick with the recent radar images of what appear to be hydrocarbon-filled lakes on Saturn's moon, Titan, and some movies from Titan. I'm also happy to discuss the interesting phenomenon of "instant public science" done by enthusiasts everywhere who have instant access to the latest space science data from the web. BTW, Nature magazine's piece on exciting questions in chemistry (this week) included a mention of Titan, which should be on every organic chemists' hit list for places to visit.

 

I am interested in discussing the dichotomy of design and evolutionary search as divergent paths in complex systems development. - jurvetson.blogspot.com

 

I could begin a session about Systems Biology, with a general theme of building towards whole cell or whole organisms models in biology. I have some (whacky) ideas about this in addition to having done some real science on this subject.

 

I could present about novel circuit-focused neurotechnologies I'm developing, for advancing the study of brain function and consciousness, and for treating neurological and psychiatric disorders. Although I've been exploring this question in academic research settings – and I'm gearing up to set up my own university laboratory – I'd like to brainstorm about how to build the significant community of clinicians, engineers, scientists, and psychologists that we'd need to make strong scientific progress on the timeless, unyielding problem of understanding the nature of consciousness.

 

I could talk about/demonstrate: digital fabrication in the lab and its impact in field fab labs around the world, mathematical programs as a programming model for enormous/unreliable/extended systems and their application in analog logic circuits and Internet 0 networks, and microfluidic logic to integrate chemistry with computation

 

I could contribute to a session on powerlaws in nature, markets and human affairs. They're found nearly everywhere, from earthquakes to species distributions to cities to wars. We used to think the world was mostly defined by gaussian distributions (bell curves) with neat medians and standard deviations. But now we see that powerlaws, where low-frequency events have the highest amplitude, are far more common, and they're infinite functions where concepts like "average" are meaningless. What are the factors that create powerlaws and what does nature have in common with economics and social networking in this instance?

 

I'd like to talk to the assembled folks about a project we are running to help scientists move large datasets without using the internet (which can be very slow or expensive.

 

I hope to demo a viral database and talk about efforts to build real time surveillance via the WHO.

 

I'd like to discuss the range of applications being discussed in HE (HigherEd) that permit faculty and research groups to store and share a wide range of scholarly assets, including research data, texts (articles such as pre-prints and post-prints), images, and other media. These next generation academic apps provide support for tagging, community-of-use definitions, discovery, rights assertions via CC, and new models of peer review and commentary. Early designs typically implicate heavy use of atom or gdata for posting and retrieval, lucene, and ajax.

 

I can offer a brief introduction to the Human Genome, and the field of Comparative Genomics which focuses on comparing our own genome to that of other species. I'll try to give a taste of some of the startling revelations, seeming paradoxes, and many open questions that make working with this three billion letter string a ball.

 

I could offer the opposite point of view, looking at the very simplest organisms, what they do, how they work, and what life looks like when the genome fits on a floppy.

 

I would like to talk about the future of the scientific method. How the scientific method was one invention the Chinese did not make before the west, and how the process of science has changed in the last 400 years and will change even more in the next 50 years. I'd love to hear others' ideas of where the science method is headed.

 

I could offer some (possibly naive) ideas on how we could design evolvability into the scientific process by learning from the evolution of cellular complexity. I can also include some examples from language evolution and software evolution.

 

I can describe our general approach for open collaborative biomedical research at The Synaptic Leap.

 

I have in mind a presentation related to my project on Milestones in the History of Data Visualization – an attempt to provide a comprehensive catalog documenting and illustrating the historical developments leading to modern data visualization and visual thinking. The talk might encompass some of (a) some great moments in the history of data visualization, (b) 'statistical historiography': the study of history as 'data', (c) a self-referential Q: how to visualize this history. The goal would be more to suggest questions and aproaches than to provide answers – in fact a main reason to present would be to hear other people's reactions.

 

As we're on the topic of visualizations, I could give a talk about the rise of the geobrowser/virtual globe and how it is revolutionizing the geospatial visualization of information. I can showcase some of the best examples of scientific visualizations, show how geobrowsers are helping humanitarian causes and discuss the social-software aspect of Google Earth and other expected 'mirror worlds', where geospatial information is shared, wiki-like. Above all, I would love to brainstorm the possible use of geobrowsers in the projects of other campers.

 

I'm willing to give a talk about imaging projects in the Stanford Computer Graphics Laboratory, such as our large array of cameras, our handheld camera whose photographs you can refocus after you take the picture, and our work on multi-perspective panoramas (the Google-funded Stanford CityBlock Project). These projects are part of a trend towards "computational photography", in which computers play a significant role in image formation.

 

I'm a Hugo Award-winning science-fiction writer, and I'm working on a trilogy (my 18th through 20th novels) about the World Wide Web spontaneously gaining consciousness once the number of interconnections it has exceeds the number in a human brain. I'd love to talk a bit about my ideas of how such a consciousness, at first an epiphenomenon supervening on top of the web infrastructure, might actually come to access the documents and input sources available online and how it might perceive external reality, and I'd love to brainstorm with people about what sort of interactions and relationships humanity might have with such an entity.

 

I could talk about the current and future generation of astronomical surveys that will map the sky every three nights or so (e.g. the Large Synoptic Survey Telescope). They are designed to be able to address multiple science goals from the same data set (e.g. understanding cosmology and dark energy through to indentifying moving sources such as asteroids in our Solar System). With hundreds of thousands of variable sources detected each year (on top of the ten billion non-variables) the flow of data presents a number of challenges for how we follow up these sources.

 

I could talk about insights gained as part of the NSF-funded Pathways research project (Cornell U, LANL) that looks at scholarly communication as a global workflow across heterogeneous repositories and tries to identify a lightweight interoperability framework to facilitate the emergence of a natively digital scholarly communication system. Think introspecting on the evolution of science by traversing a scholarly communication graph that jumps across repositories. I could also talk about work we have been doing with scholarly usage information: aggregating it across repositories, and using the aggregated data to generate recommendations and metrics.

 

I'd love to show the prototype of an NSF-sponsored web-based simulation designed to help students learn about the nature of science. I'll bring the server on my laptop; we can all connect and play cosmologist. Advice welcome. More at NatureOfScienceGame

 

Making Open Access Affordable (free): There is a move afoot to put all science literature in the public domain (it is mostly funded with tax-free or tax money). There is a move afoot to put all science data in the public domain (ditto). These are unfunded mandates. We can not do much about the funding, but we computer scientists can do a LOT to drive the needed funds to zero by making it EASY to publish, organize, search, and display literature and data online. This also dovetails with Jill Mesirov's approach to reproducable science – future science literature will be a multi-layer summary of the source data – words, graphs, pictures on top and derivations + data underneath. Many working on these issues will be at this event. We should have a group-grope.

 

Laboratory Information Management Systems (LIMS) for small labs with BIG data. It is embarrassing how many scientists use Excel as their database system – but even more embarrassing is how many use paper notebooks as their database. New science instruments (aka sensors) produce more data and more diverse data than will fit in a paper notebook, a table in a paper, or in Excel. How does "small science" work in this new world where it takes 3 super-programmers per ecologist to deploy some temperature and moisture sensors in a small ecosystem? We think we have an answer to this in the form of pre-canned LIMS applications.

 

Related to this I could talk a bit about how our work on myGrid has been aiming at taking the escience capabilities offered to large well funded groups down to a more 'grass roots' level - grid based science is traditionally the realm of people and groups with serious money but we don't think this has to be the case.

 

I could present a software demo of a new web-based collaborative environment for sharing drug discovery data – initially focused on developing world infectious disease research (such as Malaria, Chagas Disease, African Sleeping Sickness) with technology that should be equally applicable for scientists collaborating around any private or public therapeutic area. This demo is a collaboration initiated between Collaborative Drug Discovery, Inc and Prof. McKerrow at UCSF which could shift drug discovery efforts away from today's fragmented, secretive, individual lab model to an integrated, distributed model while maintaining data and IP protection.

 

Our present vaccine production infrastructure leaves us woefully unprepared to deal with either natural or artificial surprises – think SARS and avian influenza (H5N1), which can both easily outpace our technological response. There are superior technological alternatives that will not be widely available for years to come due to regulatory issues, and I would like engage the other campers on ways to address this problem. In particular, I would like to explore the potential contribution of distributed, low cost science – garage science – to improving our safety and preparedness.

 

The "Encyclopedia of Life" is a buzz phrase being bandied around by biologists – the idea is having an online resource that tells you what we know about each species of organism on the planet. It's an idea that seems obvious, but how would we achieve this given the scale of the task (number of known species about 2 million, those waiting to be found maybe 2-100, we really don't know), the rapidly dwindling number of experts who can tells us something about those organisms, the size of the literature (unlike most sciences, taxonomists care about stuff published back as far as the 18th century), and the widely distributed, often poorly digitized sources of information? I'd willing to chat about some of the issues involved, and some possible solutions

 

I would like to share briefly with you the results of a five year project to create and publish the world’s first totally integrated Encyclopedic vision of food – its origins, variations, complexity,nutrients, dimensions, meanings, enjoyment, history and a thousand and one stories about food. The result is a new kind of truly multidimensional Encyclopedia of Food and Culture that I edited with a whole team of scientists and scholars, and Scribner’s (Gale /Thompson) published in 2003. The Encyclopedia has been well reviewed and we won, among many awards, the Dartmouth Medal (the top prize in the reference world) in July 2004. I am bringing a three volume HARD copy with me and will put it on display at the “Table” for everyone to peruse at your leisure -(it is designed to ‘catch you’ – so if you are a browser and you love food you may have trouble giving it up for others to read!)I would also be delighted to talk about a new kind of World Food Museum that is designed to make the Encyclopedia come alive (please seem my bio statement for more).

 

I would like to present Cornell Lab of Ornithology’s Citizen Science work as an example of several of the broader citizen science interests described in the Wiki. These include: Challenges of involving the public in data collection for professional research, scientific tradeoffs and possibilities, internet data collection tools, dynamic graphing and mapping tools, data mining, sustainability, webcommunity building plans for the future, and recruitment models within the contexts of conservation science and ornithology.

I would also like to demonstrate the new Pulluin software chip that fits in a TREO palm cell phone. It has a bird ID tool, lets you hear vocalizations, see pictures, and enter data into one of our citizen science projects, eBird. The ideal way to show you this toy would be to take interested campers on an early morning bird walk. If I can get enough signups, I will try to get eBird project leader, Brian Sullivan, to come up from Monterey, providing he is available. We would probably carpool to the shore to bird. If you are interested, email me and tell me which days, Sat., Sun., or both, you would be available.

 

Who are we? I'd like to give a short talk to argue for the importance of addressing an old question with a new meaning: What is it like to be human? Why do we dare, care and share? Why are we curious, generous and open? We have to deal with these questions before artifical intelligence, genetic engineering and the globalisation of cultures have changed us irreversibly. Many areas of activity in science, technology and the arts offer new perspectives: Sexual selection, algorithmic information theory, perception, nutrition, experimental economics, game theory and network theory, etc. They point to a coherent view of humans as flows and processes, rather than things and objects. Openness is essential. Attention is essential. Time is ripe for a new collective effort at producing a view of human being relevant to our age.

 

Robotics for the Masses – I would like to present two new technologies that we are public-domaining imminently. One is Gigapan, a technology for taking ultra-high-resolution panoramic images with low-cost equipment. We can generate time lapses of an entire field with enough detail to see individual petals in detail as they bloom and wither. The second is the TeRK site, which is designed to enable non-roboticists to make robots for tools without becoming robotics experts. I will bring Gigapans and TeRK robots with me and would love to show them doing their techie things. Both of these strands have the potential to be useful scientific tools.

 

Science, not near as much fun as math! :~) But without it the world remains untouchable. Do you want your child with maximum understanding? We better equip the rest to understand her, so that she is heard when speaking about this exquisite world. But how to reach as many as can be reached? Free is not near enough, full access comes close. The challenge is to deliver science, as the compelling, engaging, tantalizing world that it is, the very first frontier to cross into who we are. The quality of that experience needs freedom of expression. NASA World Wind is a bold step towards that. We are delighted to share the not-so-secret secrets thereof.

 

I could discuss how our fundamental discoveries on bipedal bugs and octopuses, gripping geckos and galloping ghost crabs have provided biological inspiration for the design of robots, artificial muscles and adhesives. I can include a demo of artificial muscles from Artificial Muscle Incorporated. I will bring two robots in development – a gecko-like climbing robot from our collaboration with Stanford and an insect-like hexapedal robot built by our UPenn colleagues. I will carry with me live death-head cockroaches that serve as our inspiration. I could facilitate a discussion of neuromechanical control architectures. I will introduce briefly our new center at Berkeley (CIBER – Center for Interdisciplinary Bio-inspiration in Education and Research) and a new journal - Bioinspiration and Biomimetics. I welcome this group’s creative suggestions not only for the next generation of robots, but also for novel designs using tunable skeletal structures, artificial muscles and dry adhesives

 

I would be interested in discussing and debating technical and nontechnical issue involving Social Semantic Search and Analytics. There is a significant interest in Social Search, and some interest in Semantic Search. Here is a scenario that probably involves more futuristic capabilities but a modest verion of this can lead to lower hanging fruits involving "little semantics" and "weak semantics" which would involve less infrastructure in creating and maintaining ontologies (albeit my experience shows building and maintaining large ontologies is doable, see Semantic Web: A different perspective on what works and what doesn't: (a) a research paper is published ;Eg: Semantics Analytics on Social Networks www2006.org/programme/item.php?id=4068], (b) there is a popular press article with numerous factual errors and unsupported conjuctures e.g., this one, (c) there are several versions on popular web sites along with numerous blog postings containing emotional reactions See for example, (d) Tim O'Reilly digs into the facts and sets the record staight in Datamining Social Networking Sites. How can we track the string of these stories along various dimensions [thematic, spatial, temporal] while provding overview, ranking based on various criteria, contextual linking, insights on individual postings, and more? I am interested in more than clustering and linking through statistical analysis which are good to put some stories in font of a reader,but would not sufficiently help someone who needs to creat a cogent understanding of an event or a situation.

 

I'd like to discuss the planning of a Mountain View Consensus, in response to Bjørn Lomborg's Copenhagen Consensus, a ranking of where to spend money on the world's biggest problems. The frustrating thing about the Copenhagen Consensus is that it is published as a report – so if you think the compund interest rate should be 2% higher, you can only speculate on what the effect would be of changing it. For the Mountain View Consensus we would publish findings as a collaborative spreadsheet, with annotations for the values that different participants place on each variable, and the opportunity for anyone to add annotations. Also, while Lomborg invited only economists, we would include scientists and engineers who understand the technologies, and venture capitalists who understand risk factors and chances of technology bets.

 

I have two projects I'd like to share at Science Foo–and i'm eager to hear your thoughts on how best to build and deploy them both:

1) An open source project–the Family Medical History Tool –that could graphically capture essential medical data and which could be shared by family members (with this goes a myriad of challenging issues around privacy, HIPPA laws, etc.

2) We're initiating a "citizen science" approach to a retrospective clinical trial providing open and transparent results real-time. We believe that additional data could be rapidly collected to demonstrate a correlation between drug metabolism and genotype for the 2D6 gene and the drug tamoxifen. Preliminary data shows that 5-10 % of women who are 2D6 poor metabolizers taking tamoxifen (to avoid a reoccurrence of cancer) may be getting nothing more than a placebo effect, and worse, run a 3 times greater risk of a cancer reoccurrence.

 

I could give a talk and lead a discussion on the status and prospects for advanced nanotechnologies based on digital control of molecular assembly. I'd start by describing machines that already do this (in biology) and how they are being exploited to make nanostructures. I'd then outline a path forward to some very powerful technologies that today can be studied only by means of physical modeling and computational simulation. There are potential applications on a scale relevant to the climate change problem.

Philips scientific calculator

Recruiter . M, Vivek Product Manager Achuthan, Ashita S tware Manager Achyutuni, Kiran Recruiter at Amazon Acquazzino, Kristen Network Architect Adam, Richard Associates Program and Business Development Ma Addley, Kevin Human Resources Assistant Adkins, Erin Vice President, Appstore Adkins III, James Senior Vendor Manager Tabletop Adler, Hagen Usability Specialist Adlin, Tamara Site Merchandiser, Automotive Aemmer, Megan Technical Program Manager Agarwal, Manish Senior Partner Development Manager Aggarwal, Vipul S tware Engineer In Test II Agrawal, Neeraj Manager GPS Database Engineering Ahearn, Tom Product Manager Akers, Morgan Vendor Returns Department Akhurst, Nick Technical Recruiter Albert, Kimberly Senior Manager , Business Development Albertson, Jeff Technical Recruiter Retail Alia, Michael Buyer Outdoors Allen, Nathan Senior Technical Program Manager Allen, Nicholas Recruiter Allison, Joan Buyer, FootwearBusiness Development Team Alteio, John Recruiting Systems Specialist Anderegg, Nicole Senior Recruiter Anderson, Kim S tware Development Engineer Anderson, Matthew Technical Recruiter Anderson, Noelle Web Graphics Designer Angell, Gilia Systems Manager Archbold, Richard Senior Vendor Manager Archer, Meghan Program Manager Aristides, Phivos S tware Development Manager Armato, Steven Senior Manager Security and loss prevention Armstrong, Ross Senior Manager Analyst Relations-Web Services Armstrong, Steven IP Specialist Arnett, David Business Development Manager Arnold, Gary Senior Recruiter Arnold, Scott PM World Wide Physical Security Arntson, Robert Manager Senior Arthur, Jennifer Account Manager Independent Media Ash, Paul Network Engineer Augustus, Rohan Usability Analyst Babcock, Benjamin Technical Product Program Manager - Babel, Rajesh Data Warehouse Engineer Global Financial Applications Babu, Nancy Senior Manager , World-Wide Physical Security, Systems, Servi... Bacco, Ed Product Manager Bacon, Gavin Database Administrator Bacthavachalu, Govi Senior Technical Program Manager Bai, Yun Senior Manager -North America Process Improvement Baker, Adam Marketing Manager Baker, Brandon Web Developer Bakhach, Abdullah Senior Product Manager Ballard, Brian Manager AWS Data Warehouse Bantwal, Praveen Data Center Engineer Baracani, Mark Business Development Barcellos, Blair Senior Technical Program Manager nathanp nathan p. cust.service03 harasser Barham, Paul Merchant Group Product Manager atAmazon com Barmes, Christine Product Manager Barmes, Christine Director Benchmarking Barnes, Robert Solutions Architect Baron, Joseph Chantilly VA Paralegal Baron, Laynette Senior Web Services Evangelist Barr, Jeff Senior Process Engineer Barron, John S tware Engineer Barroso, Musachy Senior Vendor Manager Movies Barrueta, Jeanne Senior Program Manager Barth, Aurelia Product Manager Bartlett,Andy Manager entertainmentstrategyatamazon is nathanp, Nathan P. Celebrity Harasser, Implementer of Suspended Account, Poor People Skills, Bartlett, Andy Product Manager Baskaran, Ganesh Senior Recruiter Bataglio, Michael Technical Engineer Batalov, Denis Senior Human Resources Manager Bath-Hydzik, Simmi Technical Program Manager -Kindle Batra, Shail Director Operations Engineering Battles, Jon Regional Human Resource Manager Bauer-Dauenhauer, Ma... Senior Marketing Manager Prime Baum, Ryan Leadership Development Baumann, Jean SEO Strategist Baumann, Marc Senior Support Engineer Baza, Zak EA to Kurt Kufeld and Eric Docktor Bazan, Adriana Technical Program Manager Alexa com Bazit, Azhar Business Devel Associates Bazley, Bill Director Video Content Acquisition Beale, Brad Senior Purchasing Assistant Becker, Collienne S tware Development Engineer Beckford, Jonah Vice President Legal Retail Team Beckman, Amber Amazon Begg, Douglas Analyst Begum, Ashraf Business Development Beliard, Ge frey Information and Technology Vice President Bell, Charlie Senior Product Marketing Manager , Enterprise and Partners Bellinaso, Marcelo Manager , Associates Program Bender, Karen WebStore Integration Specialist Bengtson, Zachary Editor FilmFinders Benites, Erika Studio City CA Senior Manager , Movies Vendor Management Bennett, Elizabeth Market Research Analyst Bennewitz, Marie AWS Sales Team-SMB Sales Representative Benson, Eric Senior Developer Benson, Eric Finance, Digital S tware and Video Games Bent, Ge frey Quality Assurance Manager Berge, David Onboarding Manager Bernal, Alejandra Senior Vendor Manager -Computers Berning, Tom Merchant Product Manager Berry, Alissa Executive Recruiter Bertiger, Karen Recruiting Coordinator Betz, Alexa Inventory Planner Beutler, Tyrel Chairman President and Chief Executive ficer Bezos, Jeffrey Senior Technical Program Manager Bhamani, Faisal Human Resources Leadership Development Program Specialist Bharadvaj, Swetha Buisness Dvelopment Bhas, Michael Developer Programmer Bhise, Mohar Data Engineer Bhupatiraju, Krishna S tware Development Manager at A Z Development Center Bianco, Antonio Buena Park CA Data Warehouse Engineer Biddle, David Technical Program Manager Biggs, Jody Development Manager Bilger, Jeff Senior Manager World Wide Investigations Binder, Matt Senior Technical Program Manager Black, Brian Systems Engineer Blackham, Nathan Senior Manager Human Resources-Immigration Blackwell, Ayesha Develoepr Blakely, Adrian Recruiter Blalock, Zeb Manager , S tware Development Bliss, Jason Senior Recruiter-North America Operations Blower, Aaron Mobile Applications Bodas, Anant Director, University Programs Boden, Jenifer Director, University Programs Boden, Jennifer Senior Vendor Manager Bohlke, Kirsten Executive Assistant Bol, Colleen Senior Vendor Manager US Books Bongiorno, Elaine Director, Worldwide Corporate Development Booms, Douglas Vendor Manager Boone, Nicholas Senior Tech Program Manager Booth, Robert Senior Recruiting Specialist Borde, Kamlesh Senior Merchandiser, Amazon Toys Bottorff, Mandy Senior instock Manager , Kindle Bouchez, Isaac Senior Manager Talent Acquisition Bouffard, Helene Senior Development Manager Bowden, David Senior Manager Demand Generation Bower, Erik Technical Program Manager Ama Bower, Jason Senior Global Payments Director Bowman, Mary Kay S tware Development Engineer Bradley, Adam Recruiter Bradshaw, Jeremy Manager S tware Engineering Brahnmath, Kumar Tech Product Manager Brandwine, Clarissa Financial Analyst Brauer, Nathan Senior Group Product Manager Amazon comHome and Garden Breitenstein, Jeff Product and Marketing Director Brennan, Justin Vendor Manager -Powersports RV Brent, Austin Program Manager Hardware Engineering Bresser, Matt Senior BDM Global Partners-Amazon Mechanical Turk Bretz, Heidi Principal Security Engineer Brezinski, Dominique Senior Technical Recruiter Retail Brichetto, Tony National Accounts Manager Brockwell, Jason AWS Development Brodesky, Michael Human Resources Executive Assistant Brow, Erin Manager Content Acquisition Brown, Daniel New Business Development Sales Representative Brown, Dave Recruiter Brown, Dave Regional Sales Manager Brown, Mark Senior Finance Manager -Amazon Fulfillment Brown, Michael Employment Lawyer Brown, Zane Senior Corporate Counsel IP Brown Northcot, Dana Program Manager Website Platform Brozovich, Stephen Editor North American Retail S tware Bruce, Jeff Senior Researcher and Recruiter Bruce, Robert Tax Analyst Brueckner, Lilana Manager Hardware Engineering Bryan, Dave Senior Manager Business Development Buchanan, Christophe... Technical Recruiter Buckles, Alicia Senior Group Product Manager -KindleAmazon com Budaraju, Hema Regional Marketing Consultant-AmazonLocal Budyszewick, Alexand... Recruiter Buendio, Adrian Business Development Bula, Michelle Business Development Bultz, Josh Senior Planner Burbank, Betsy Tax Analyst Burch, Sarah Senior Program Manager , Online Advertising Burdick, Melissa Client Lead Principal Senior Recruiter Burk, Catherine J Apples Senior Sale Vice President Burke, James Business Development Manager Burks, Justin Senior Vendor Manager Burrington, Mike Shared Services Manager Bursiek, Catherine Washington OK Windows and Linux Systems Engineer Busch, Jeff Washington OK Senior Manager Human Resources Butler, Jann Senior Manager Operations Fulfillment Butti, Michele Senior Manager , S tware Development-Global Financial System... Bysshe, Tom Senior Manager , S tware Development Cabanero, Christian Watch Winder Buyer Cabias, Jason Channel Sales Business Development Calderon, Catherine Senior Manager , Vendor Management, fice Electronics and Su... Callies, Dan Senior Financial Manager Callum, Rob Java S tware Development Engineer Calvert, Jeremy Manager Global Telecom Camacho, Raul Senior S tware Developer Cameros, Brian Head Marketing Camp, David Senior Manager Sales and Operations Planning Campbell, Bill Integration Services Program Manager Campbell, George Executive Recruiting Coordinator Campbell, Katie ... ... Product Manager -Gourmet Canfield, Brett Developer Programmer Carbon, Peter Solutions Architect Carl, Craig S tware Engineering Manager , Seller Success Carlson Berg, Christ... Business Development Carman, Joel Director ERP and Finance Systems Carmichael, Colin S tware Development Engineer Carr, Jacob Buyers Assistant Carrie, Pollock Network Engineer Carroll, Grant Military Relations Manager Carroll, Kathleen Director, Sales Engineering at Parallels Carter, Todd Vice President, Finance Seller Services Caruccio, Rino Manager -Technical Account Management Carver, Brian Senior Manager Human Resources-Technology Casey, Jim Sourcing Recruiter Finance Casey, Tiffany Manager Customer Service Cassidy, Martin ficer site Acquisition-Amazon Prime Cassidy, Ryan Operations Director for Transaction Risk Management Systems-... Castonguay, Kevin Product Manager Cattaneo, Helen Recruiter Centanni, Sarah Senior Support Engineer Center, David Program Manager Cerda, Paul Vice President Human Resources North America and Asia Cerio, Shelly Human Resources Manager Cermak, Samantha Manager , Performance Group Certain, Andrew Site Leader Cervenka, Brent Manager Vendor Management Vg Cesarano, Tony Senior Database Administrator Ceschim, Wanderley Snoqualmie WA Security Engineer Cetina, Jason Recruiting Coordinator Cha, Therasa Developer Programmer Chakravarthy, Diwaka... Senior Recruiter Chambers, Steve at Amazon com Champion, Cathi Classification Specialist Chan, Reyna Technical Recruiter Retail Chandrasekharan, See... S tware Development Manager Chang, Brandon Marketing Campaign Manager Business Development Chang, Cathy Recruiting Coordinator Chapman, Jessica Developer Programmer Char, Hanson Senior Project and Program Manager Charles, Kristin Senior Buyer Amazon ca Chawla, Kaveesh Principal, Strategic Business Development Chen, David Account Manager Chen, Winkie S tware Technical Engineer Chen, Ye Information Technology Cheng, Calvin Manager Merchant Solutions Chesire, Maureen Vendor Program Manager Cheung, Kong Vice President Product Chiarella, Sharon Senior Manager Chien, Mark Group Product Manager atAmazon comforMechanicalTurk Chien, Mark Senior Program Manager Chinta, Sairam Recruiter Cho, Richard Director, S tware Development Chopra, Rajiv Business Analyst Chordiya, Ritu Developer Relations Engineer Choudhury, Satyen Technical Program Manager Chouksey, Sachin Washington OK Asia Shared Services Manager Chu, Carson Washington OK Senior Development Manager Chuang, James Recruiting Coordinator University Programs Cimburek, Anna Recruiter Retail Ciminera, Lauren Vendor Manager Claeson, Jeremy Director Events and Catering Clair, Michelle Senior Product Manager Clancy, Karson Vice President Global Customer Fulfillment, Transportation a... Clark, Dave Vendor Manager Clark, Jason Senior Human Resources Business Partner Clarke, Diane Product Management Clarke, Fred DCGS Systems Administrator Clifton, Keith Virginia MN Senior Recruiter Europe for Kindle Closmann, Claudia Not in Information Technology Department Co, Knievel Peering Manager Cohen, Peter Herndon VA Technical Recruiting Coordinat Colagrossi, Tara Director Talent Management Cole, Madonna Director Operations Emerging Markets Collins, Tim Buyer Assistant Colwell, Joana Phoenix AZ Senior Recruiter Commons, Peter Senior Tax Manager Compton, Heather Sourcing Recruiter Conaway, Gary Sourcing Recruiter Global Talent Acquisition Conner, Courtney Information Technology Security Engineer Connolly, Jerry Senior Client Lead Recruiter Kindle Connor, Katy Administrative Assistant Connors, John Buyer-Pneumatics, Woodworking and Imports Consolati, Michael Senior Marketing and Content Manager Conway, Chris Director-North America Operations Real Estate Conwell, Ben Vendor Operations Analyst Conyers, Jen Leadership Development Coordinator Cook, Cara Recruiting Associate Cooke, Melissa Senior Manager Inside Sales Coon, Bob Associate Project Manager Kindle Copeland, Cassondra Technical Engagement Manager Cordis, Monique Senior Manager Vendor Management Costello, Steve Hiring Manager -Amazon Corporate LLC Coughlin, Chesley Senior Manager Editorial Coulter, Kristi Senior Statistician, Amazon DataMining Business Intelligence Courbois, Pip S tware Product Business Management Cowan, Gary Transportation Program Manager Carrier Manager Cox, Jack Global Product Procurment Export and Import Crabtree, Na Senior Manager Digital Media Group Criscione, Susan AdvertisingandMarketingatAmazon com Crist, Lauren Senior Human Resources Manager Media Critchfield, Kathlee... Amazon Crites, Justin Senior Manager US Books Buying Crossgrove, Dana Manager , Data Center Operations-Ireland Crowley, Eoin Data Engineer Crutcher, Michael Training Manager Culver, Mike Senior Sourcing Recruiter Curry, Maria Senior Program Manager Infrastructure Curtis, Lesly Technical Writer Curtis, Mikke Program Administrator Curtwright, Becky Leadership Development Manager Cutler, Wyatt Engineering Data Center Engineer Czamara, Michael Principal Marketing Manager D'Alo, Stelio Recruiting Events Coordinator Dahl, Ingen Manager , Technical Program Manager Dalmia, Manish Talent Acquisition Manager , North American Operations Dana, Philip Sourcing Recruiter Danylchenko, Tetiana Recruiting Coordinator Darling, Angela Technical Lead CS Telephony Systems Dashe, Jeremy Consultant David, Michael Sourcing Recruiter Davies, Kimberly Senior Business Development Manager Davis, Kaley Recruiting Coordinator Dawson, Ariana S tware Engineering Manager Days, Adam Marketing Manager De Graeve, Marc Leadership Development Principal De Melos, Lismary S tware Development Engineer De Sousa, Christian General Manager Home Improvement Dean, Matt Fullfillment Services Dean, Stephanie GovCloud Technical Program Manager Deane, Alice Virginia MN Engineer Dec, Theresa Senior Recruitment Coordinator Dedden, Melissa Campbellsville KY Human Resources Manager AMAZON COM Dehuff, Irene Development Manager Deibler, Michael Senior Business Development Manager Channel Dekate, Jerene Manager S tware Development Dent, Steve Senior Finance Manager , Regional Controller Deppe, Chris Developer Programmer Deramat, Frederic Senior Recruiter Derheim, Amy S tware Development Manager Desai, Pradeep Information Technology Desantis, Peter General Manager Sales and BD Deshpande, Amit Senior Manager Database Admininstration Devanarayanan, Venky Enterprise Solutions Architect Deyhim, Parviz Senior Manager Community at Amazon com Dicker, Russell Senior Recruiting Manager Didis, Larisa Senior Manager , Capitol Equipment Procurement Diesch, Matt Customer Service Tech Group Difuria, Rob Sales Engineer Dilley, Justin Business Development Manager Dilley, Justin Manager Oracle Database Administrator Ding, Peter Associate Publisher, Marshall Cavendish Childrens Books Ditlow, Tim Business Development Strategic Relationships at Amazon Web S... Dittmer, Chris Channel Marketing Manager Dix, Natalie Recruiter Dixit, Vijay Senior Marketing Manager Dobish, Heather Human Resources Manager Dobner, Jenni S Senior Manager Video Games Dogan, Ozgur MBA recruiter Dolce, Justin Trade Marketing Manager Doll, Kristin DMM S tware Donahoe, Celeste Recruiter at Amazon com Donaldson, Janelle Senior Technical Program Manager Donnelley, Sam Program Manager Donsbach, Aaron Data Center Technician Dorman, Jim Project Engagement Manager Downey, Brent Manager Technical Program Manager Downey, Kyle Voice Engineer Doyle, Orrin Senior Manager Video Games Duchovnay, Bram Director Information Technology Infrastructure Duddy, Brian Senior Manager Duffer, Chad Problem Solver PM Duffy, Robert Manager III Build to Release Team Dugaw, John Data Center Manager Duggan, Howard Human Resources Duggan, Hugh Product Manager Dunlap, Alex Data Center Operations-Ireland Dunne, Mark Technical Account Manager Dunston, Kevin Recruiter Retail Dupper, Jennifer Kindle Technical Recruiter Dutton, Leslie Vendor Secialist Dwenger, Michael Leadership Development Manager Dye, Lori Senior Manager Leadership Development Dye, Steve Director AmazonLocal- Product Eamer, Mark Senior Manager Eaves, Erin Technical Sourcer Eckert, Brandon S tware Engineering Manager Edelman, Alex Business Development-Application Store Edison, Scott

" Dinner for one... " - Just finished this piece - more #datamining :

View to Kerkis mountain of Samos from Ai Giorgis beach near Cape Drakanon, Ikaria.

Dedicated to a Flickr group called Kerketeas/Kerkis which, though a small group, reminds us of a big truth: the Aegean is not just sea and sand.

 

Timelined Datamined

2013 • Wood frame, ping pong balls, black paint.

--

the weekly seen || daliophoto.com || twitter || vine || instagram || look at that sound || stellar || ipernity || not on facebook

Web Scraping is a technique to simulate the behavior of a web site user to effectively use the web site itself as a web service to retrieve data or introduce new data. www.website-scraping.com

COVER of the e-Book written by I.C. Papachristos.

 

© 2016 — edit. I.C. Papachristos, Thessaloniki, Greece

 

ISBN: 978-960-93-7835-2

 

National Library of Greece

 

FREE distribution through:

 

www.icp-med.gr/engl

 

A contribution to Medicine & Computer Science

 

Ce portrait existe aussi en H.D.,11Mo libre de droit avec citation "Demeure du Chaos"

www.flickr.com/photos/home_of_chaos/7752043472/in/set-721...

  

La Théorie de l’information : Aurelien Beranger , Xavier Niel Thierry Ehrmann article décapant du NouvelEco - Lire la suite >>>

  

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

1/8, f/5.6, TMax 400, Mamiya 135mm f/4.5 on C330. HC-110, 1:63, 13 min @ 18C

“Tracking the trackers: Gary Kovacs explains Mozilla Collusion” #data #privacy #opinions

 

It was said that data is the new oil [1]. The data mining industry is an annual US$39 billion business. Like it or not, data is being collected about you surf the web. The technology was not intended as evil, but as Internet citizens we have the right to know what data is being collected and how it might affect us.

 

During a recent TED Talk, Gary Kovacs, the CEO of the Mozilla Corporations, demonstrated Collusion, a free Firefox add-on which visualizes your browsing behavior in real time. [2, 3]

 

In the visualization: the blue dots are sites which you have visited, the red dots are third party sites which are tracking you, and the gray dots are tracking data which could not be identified.

 

In his demo, Gary showed that 25+ sites started tracking him by checking emails during breakfast. An even more alarming aspect of this was installing the addon on his 9 year-old daughter’s computer and visualizing what companies are tracking through her browsing kids’ sites.

 

What Gary showed is the tip of an iceberg. Through my own consulting gigs in New York, several multi-national corporations have demonstrated what their own tech can track—which goes far beyond what is thought to be humanly possible. A very alarming feat indeed.

 

Recommended.

 

1. Data is the new oil - Human Face of Big Data © Nigel Holmes 2012 www.flickr.com/photos/emcuki/8008798697/

 

2. TED: Gary Kovacs: Tracking the trackers: www.ted.com/talks/gary_kovacs_tracking_the_trackers.html

 

3. Mozilla: Collusion: discovers who is tracking you online: www.mozilla.org/en-US/collusion/

 

“Tracking the trackers: Gary Kovacs explains Mozilla Collusion” #data #privacy #opinions / SML.20130202.SC.Data.Privacy.Opinions

/ #SMLScreenshots #CCBY #SMLOpinions #SMLPublicMedia #SMLData #SML8BigData #SMLUniverse #SMLRec

/ #screenshots #Mozilla #GaryKovacs #bigdata data privacy opinions #technology #business #datamining #infovis #visualization #Firefox #addon #tools #security #IT #TED #internet #kids

  

Do you wish to start a career in analytics? check out this cool infografic on Analytics opportunity and jobs trend by Simplify Analytics​

Visit goo.gl/vhAp35"

#simplifyanalytics #data #analytics #DataScience #Beta #analytics #bigdata #dataanalytics #digitalethics #insights #privacy #trust #round

#disk #indoor #circle #text #Instagramapp #Art #bright #big #sexiest #job #career #future #illustration

 

Ce portrait existe aussi en H.D.,11Mo libre de droit avec citation "Demeure du Chaos"

www.flickr.com/photos/home_of_chaos/7752043472/in/set-721...

 

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

 

Ce portrait existe aussi en H.D.,11Mo libre de droit avec citation "Demeure du Chaos"

www.flickr.com/photos/home_of_chaos/7752043472/in/set-721...

 

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

Business intelligence concept man pressing selecting BI

Macro Mondays, theme - 'in the center.'

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

Keep your friends close, but your enemies closer!

  

Die amerikanische Botschaft genießt direkt neben dem Brandenburger Tor und unweit des Reichs- sowie Bundestages sicherlich besten Empfang!

  

Funny how all of my tags were repeatedly denied by Flickr:

(Edit: they finally appeared, but with a suspiciously long delay)

  

© Andy Brandl (2014) // PhotonMix Photography

// Andy Brandl @ Getty Images

Patient: Seeming Lee

+ View large

+ View original

 

Read about it on SML Pro Blog

 

Compiled using Personas by Aaron Zinman, part of the Metropath(ologies) installation at MIT Media Lab. Personas can be found on the Web at personas.media.mit.edu/personasWeb.html

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

La Théorie de l'information

 

La théorie de l'information par thierry Ehrmann

 

 

Dans un premier temps, je propose la contribution de Wikipedia sur la Théorie de l'Information qui est le nom usuel désignant notamment la théorie de l'information de Shannon, qui est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communications publié en 1948.

 

Dans un deuxième temps je développe la sociologie et l'histoire relative à la théorie de l'information qui me sont propres dans ce blog.

 

Dans un soucis de traitement d' une actualité immédiate, on doit souligner la sortie prochaine de "La théorie de l'information" écrit par Aurélien Bellanger, édité chez Gallimard lien Wikipédia, qui est pressenti par la presse comme la success story de la rentrée. Les InRoks, Technikart, Nouvel Observateur, Chronicart ect..

 

Dans ce livre, l'auteur décrit notamment l'ascension d'un génie de l'informatique dénommé Pascal Ertanger, dont le parcours s'assimile à celui de Xavier Niel, Président de Free (groupe Iliad).

 

On retrouve dans cet ouvrage des personnages clés comme Jean-Marie Messier, Thierry Breton, Thierry Ehrmann, Jacques-Antoine Granjon, Pierre Bellanger, Gérard Théry, Henri De Maublanc, Claude Perdriel, Cécile Alvergnat...

 

L'auteur, Aurélien Bellanger, est né en 1980, philosophe de formation, porte ses recherches sur la métaphysique des mondes possibles. Il est l'auteur d'un essai "Houellebecq, écrivain romantique" édité chez Leo Scheer. Il intervient dans www.surlering.com/article/redacteur.php/redacteur/bellanger

 

Cet ouvrage tente de retracer la communication et les nouvelles technologies des années 1980 à 2000 et raconte notamment l'histoire des réseaux informatiques en France à travers le Minitel. L'auteur essayiste Aurélien Bellanger est présenté comme un disciple de Houellebecq et ancien libraire.

 

 

Pour revenir à la chronologie scientifique de la Théorie de l'information

 

 

Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer selon wikipédia :

 

le codage de l'information,

la mesure quantitative de redondance d'un texte,

la compression de données,

la cryptographie.

 

Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. À ce titre, il existe une autre théorie de l'information : la théorie algorithmique de l'information, créée par Kolmogorov, Solomonov et Chaitin au début des années 1960.

Sommaire

 

1 L'information selon Shannon, un concept de la physique mathématique

2 Le statut physique de la théorie de l’information

3 Développement de la théorie mathématique de l'information

4 Exemples d'information

4.1 Premier exemple

4.2 Second exemple

4.3 Information imparfaite

5 Contenu d'information et contexte

6 Mesure de la quantité d'information

6.1 Quantité d'information : cas élémentaire

6.2 Quantité d'information relative à un évènement

6.3 Entropie, formule de Shannon

6.4 Codage de l'information

7 Limites de cette théorie

8 Notes et références

9 Voir aussi

9.1 Articles connexes

9.2 Liens externes

10 Bibliographie

 

L'information selon Shannon, un concept de la physique mathématique

 

L'information est un concept physique nouveau qui a surgi dans un champ technologique. Le concept théorique d'information a été introduit à partir de recherches théoriques sur les systèmes de télécommunication. L'origine de ces recherches remonte aux études entreprises dès la fin du XIXe siècle, en physique et en mathématique par Boltzmann et Markov sur la notion de probabilité d'un événement et les possibilités de mesure de cette probabilité. Plus récemment, avant la Seconde Guerre mondiale, les contributions les plus importantes sont dues à la collaboration des mathématiciens et des ingénieurs des télécommunications, qui ont été amenés à envisager les propriétés théoriques de tout système de signaux utilisé par les êtres, vivants ou techniques, à des fins de communication.

 

À la suite des travaux de Hartley (1928), Shannon détermine l'information comme grandeur observable et mesurable (1948), et celle-ci devient la poutre maîtresse de la théorie de la communication qu'il élabore avec Warren Weaver.

 

Cette théorie est née de préoccupations techniques pratiques. La société Bell cherche à transmettre les messages de la façon à la fois la plus économique et la plus fiable. Aussi le cadre originel de la théorie est celui d'un système de communications où un émetteur transmet un message à un récepteur à travers un canal matériel/énergétique donné. Émetteur et récepteur ont par hypothèse un répertoire commun, un code qui contient les catégories de signaux utilisables. Ainsi le message codé est transmis, de l'émetteur au récepteur à travers le canal, sous forme de signes ou signaux portés par de la matière/énergie.

 

Ainsi, le concept d'information a été l'objet d'une théorie, appelée « théorie de l'information ». C'était une théorie mathématique appliquée aux techniques de la télécommunication. Elle a été élaborée plus spécialement par Claude Shannon, ingénieur à la Compagnie des Téléphones Bell et reste jusqu'à nos jours la base du concept dit scientifique d'information.

 

Cependant cette définition mathématique de l'information ne pourrait s'appuyer ni sur la forme matérielle/énergétique, ni sur le contenu cognitif des messages émis : leur contenu sémantique est laissé de côté, de même que leur contenant physique, pour ne s'intéresser qu'aux aspects mathématiques.

 

Dans sa conception originale, la théorie de l'information de Shannon s'est limitée à analyser les moyens à mettre en œuvre dans les techniques de télécommunication pour transmettre l'information le plus rapidement possible et avec le maximum de sécurité. Elle s'est donc efforcée de développer des méthodes susceptibles de minimiser la probabilité d'erreur dans la reconnaissance du message. Une notion fondamentale sera nécessaire pour développer ces méthodes : la mesure de l'information, au sens mathématique du terme.

 

Pour Shannon, l'information présente un caractère essentiellement aléatoire. Un événement aléatoire est par définition incertain. Cette incertitude est prise comme mesure de l'information. Une information sera donc uniquement définie par sa probabilité (I = - log p). Donc l'information est la mesure de l'incertitude calculée à partir de la probabilité de l'événement. Shannon a donc confondu la notion d'information et de mesure d'incertitude. Il faut remarquer que dans cette définition l'information est bien synonyme de mesure d'incertitude. Dans cet ordre d'idée, plus une information est incertaine, plus elle est intéressante, et un événement certain ne contient aucune information. En théorie de l'information de Shannon, il s'agit donc de raisonner en probabilité et non en logique pure.

 

L'information se mesure en unités d'information dites bits. Le bit peut être défini comme un événement qui dénoue l'incertitude d'un récepteur placé devant une alternative dont les deux issues sont pour lui équiprobables. Plus les éventualités que peut envisager ce récepteur sont nombreuses, plus le message comporte d'événements informatifs, plus s'accroît la quantité de bits transmis. Il est clair que nul récepteur ne mesure en bits l'information obtenue dans un message. C'est seulement le constructeur d'un canal de télécommunication qui a besoin de la théorie, et mesure l'information en bit pour rendre la transmission de message la plus économique et la plus fiable.

 

La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance.

 

L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception.

 

Le statut physique de la théorie de l’information

 

Très vite de multiples applications de la théorie de l'information de Shannon sont apparues dans le domaine des sciences humaines2 : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu'ils faisaient apparaître les limites inhérentes à ce type d'analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique3.

 

Cependant, une caractéristique majeure de la théorie shannonienne est de donner à la notion d'information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l'information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c'est-à-dire l'accroissement d'entropie ; de fait, l'information subit, dans ses transformations (codage, transmission, décodage, etc..), l'effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d'information la mesure H ( H = - K log p). De façon étonnante, l'équation par laquelle Shannon définit l'entropie de l'information coïncide, mais de signe inverse, avec l'équation de Boltzmann-Gibbs définissant l'entropie S en thermodynamique (S = K log p).

 

Certains, comme Couffignal, ont soutenu avec raison que la coïncidence est sans signification : l'application de la fonction de Shannon à la thermodynamique et à l'information est un hasard de rencontre de l'application d'une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d'univers différents. Toutefois Brillouin prétendait établir une relation logique entre le H de Shannon et le S de Boltzmann.

 

Selon ce point de vue, il est possible d'inscrire l'information shannonienne dans la physique. En effet, il existe une dualité dans le concept d'information reliant l'information à la matière/énergie véhiculant cette information. L'information shannonienne s'enracine dans la physique et les mathématiques, mais sans qu'on puisse la réduire aux maîtres-concepts de la physique classique, masse et énergie. Comme le dit Wiener : « l'information n'est ni la masse, ni l'énergie, l'information est l'information. »

 

Développement de la théorie mathématique de l'information

 

La théorie mathématique de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée.

 

À partir de l'inégalité de Cramer, on déduit que la valeur d'une telle information est proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une observation est probable, plus son observation est porteuse d'information. Par exemple, lorsque le journaliste commence le journal télévisé par la phrase « Bonsoir », ce mot, qui présente une forte probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple « La France a peur », sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et, partant, sera plus à l'écoute.

 

D'autres modèles mathématiques ont complété et étendu de façon formelle la définition de la théorie del'information.

 

Claude Shannon et Warren Weaver renforcent le paradigme. Ils sont ingénieurs en télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d'énergétique et de thermodynamique. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John von Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des « Sciences de l'Information ».

 

Pour une source X comportant n symboles, un symbole i ayant une probabilité p_i d'apparaître, l'entropie H de la source X est définie comme :

 

H(X)=-\sum_i^n p_i \log_2 p_i

 

C'est au départ le logarithme naturel qui est utilisé. On le remplacera pour commodité par le logarithme à base 2, correspondant à une information qui est le bit. Les considérations d'entropie maximale (MAXENT) permettront à l'inférence bayésienne de définir de façon rationnelle ses distributions a priori.

 

L'informatique constituera une déclinaison technique automatisant les traitements (dont la transmission et le transport) d'information. L'appellation « Technologies de l'Information et de la Communication » recouvre les différents aspects (systèmes de traitements, réseaux, etc.) de l'informatique au sens large.

 

Les sciences de l'information dégagent du sens depuis des données en s'appuyant sur des questions de corrélation, d'entropie et d'apprentissage (voir Data mining). Les technologies de l'information, quant à elles, s'occupent de la façon de concevoir, implémenter et déployer des solutions pour répondre à des besoins identifiés.

 

Adrian Mc Donough dans Information economics définit l'information comme la rencontre d'une donnée (data) et d'un problème. La connaissance (knowledge) est une information potentielle. Le rendement informationnel d'un système de traitement de l'information est le quotient entre le nombre de bits du réservoir de données et celui de l'information extraite. Les data sont le cost side du système, l'information, le value side. Il en résulte que lorsqu'un informaticien calcule la productivité de son système par le rapport entre la quantité de données produites et le coût financier, il commet une erreur, car les deux termes de l'équation négligent la quantité d'information réellement produite. Cette remarque prend tout son sens à la lumière du grand principe de Russel Ackoff qui postule qu'au-delà d'une certaine masse de données, la quantité d'information baisse et qu'à la limite elle devient nulle.

 

Ceci correspond à l'adage « trop d'information détruit l'information ». Ce constat est aggravé lorsque le récepteur du système est un processeur humain, et pis encore, le conscient d'un agent humain. En effet, l'information est tributaire de la sélection opérée par l'attention, et par l'intervention de données affectives, émotionnelles, et structurelles absentes de l'ordinateur. L'information se transforme alors en sens, puis en motivation. Une information qui ne produit aucun sens est nulle et non avenue pour le récepteur humain, même si elle est acceptable pour un robot. Une information chargée de sens mais non irriguée par une énergie psychologique (drive, cathexis, libido, ep, etc.) est morte. On constate donc que dans la chaîne qui mène de la donnée à l'action (données → information → connaissance → sens → motivation), seules les deux premières transformations sont prises en compte par la théorie de l'information classique et par la sémiologie. Kevin Bronstein remarque que l'automate ne définit l'information que par deux valeurs : le nombre de bits, la structure et l'organisation des sèmes, alors que le psychisme fait intervenir des facteurs dynamiques tels que passion, motivation, désir, répulsion, etc. qui donnent vie à l'information psychologique.

Exemples d'information

 

Une information désigne, parmi un ensemble d'événements, un ou plusieurs événements possibles.

 

En théorie, l'information diminue l'incertitude. En théorie de la décision, on considère même qu'il ne faut appeler « information » que ce qui est « susceptible d'avoir un effet sur nos décisions » (peu de choses dans un journal sont à ce compte des informations…)

 

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie électronique, peut aboutir à une saturation, et empêcher la prise de décision.

Premier exemple

 

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et reçu, l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur possède une incertitude de 10 états.

Second exemple

 

Une bibliothèque possède un grand nombre d'ouvrages, des revues, des livres et des dictionnaires. Nous cherchons un cours complet sur la théorie de l'information. Tout d'abord, il est logique que nous ne trouverons pas ce dossier dans des ouvrages d'arts ou de littérature ; nous venons donc d'obtenir une information qui diminuera notre temps de recherche. Nous avions précisé que nous voulions aussi un cours complet, nous ne le trouverons donc ni dans une revue, ni dans un dictionnaire. nous avons obtenu une information supplémentaire (nous cherchons un livre), qui réduira encore le temps de notre recherche.

 

Soit un réalisateur dont j'aime deux films sur trois. Un critique que je connais bien éreinte son dernier film et je sais que je partage en moyenne les analyses de ce critique quatre fois sur cinq. Cette critique me dissuadera-t-elle d'aller voir le film ? C'est là la question centrale de l'inférence bayésienne, qui se quantifie aussi en bits.

  

Source Wikipédia

 

 

La suite va être écrite sous forme de nouvelles, de conférences, d'interview de différent journaux tel que Time magazine sur la théorie de l'information et de notes de réflexion de Juillet et Aout 2012; dans l'attente de la suite, il est nécessaire d’absorber cette correspondance sulfureuse sur ce que sera la"théorie de l'information" (ITW de thierry Ehrmann par Laurent Courau himself dans la mythique Spirale.org) lire le lien suivant:

 

une démarche s'imposait sur la théorie de l'information cliquer sur le lien (texte bilingue FR/ EN)

 

et bien sur ce texte sur la Théorie de l'information au cœur de la Demeure du Chaos, d'Artprice et groupe Serveur.

 

L’Alchimie entre La Demeure du Chaos, groupe Serveur et Artprice

par thierry Ehrmann

 

L’univers de La Demeure du Chaos est indissociable de l’incroyable histoire d’Artprice, leader mondial de l’information sur le marché de l’art et du Groupe Serveur, pionnier historique en Europe des banques de données sur Internet depuis 1987.

 

Nos visiteurs sont toujours interpellés par le double visage de La Demeure du Chaos. Il est dur pour eux d’imaginer que, sous l’héliport, il y a des salles blanches machines où opèrent près de 900 serveurs qui distribuent le savoir dans le monde par Internet à travers nos propres fibres optiques. De même, au rez-de-chaussée et au premier étage, près de 90 personnes se relaient jour et nuit sans aucune interruption pour piloter et aiguiller à travers le monde, les grands flux d’informations que nous produisons et faisons transiter par l’Internet.

 

Un peu plus haut au cœur du bâtiment central, les salles de catalogues et manuscrits, avec plus de 290 000 catalogues de ventes de 1700 à nos jours, accueillent nos chercheurs et rédacteurs qui les commentent et les numérisent pour former ce qui est désormais reconnu comme le plus grand fonds de l’histoire du marché de l’art. Ainsi, nous avons écrit plus d’un million de biographies et commenté puis répertorié, 110 millions d’œuvres d’art avec leurs photos haute définition accessibles par l’Internet.

 

Un des postulats de La Demeure du Chaos est de reformer cette révolution du savoir que l’on a connue pendant la Renaissance européenne et notamment à Lyon, qui fût une grande métropole. La Renaissance européenne est, selon moi, inséparable d’une invention, celle de l’imprimerie, et du nouveau paradigme du savoir que celle-ci permit, sa diffusion.

 

C’est la possibilité de dupliquer mécaniquement des informations qui a favorisé l’émergence de la pensée humaniste : l’érudit pouvait enfin comparer les idées, se référer à de lointaines sources manuscrites, faire connaître l’héritage philosophique et propager sa vision individuelle à une relative grande échelle. A cette révolution technique se joignit l’essor des voyages de découverte : le mouvement de la connaissance est alors horizontal, géographique, missionnaire; la pensée s’oriente vers le progrès, moteur d’une histoire purement occidentale.

 

Cette époque, initiée par Gütenberg, s’achève aujourd’hui, au moment où la terre se voit entièrement recouverte de réseaux d’information, arpentée dans ses moindres recoins par Internet où La Demeure du Chaos, devient pour moi un Global Internet eXchange (gix), véritable nœud modal d’un savoir en grid où se diffuse la connaissance à travers le reseau.

 

La Demeure du Chaos est un état dans l’état, un véritable kernel du système républicain.

 

La dualité entre ma qualité de fondateur du Groupe Serveur, d’Artprice, qui est cotée en bourse sur le premier marché réglementé, et ma vie de plasticien depuis 25 ans, rejoint l’autre dualité qui est le lieu. Le musée l’Organe est, quant à lui, un établissement recevant le grand public, un musée à ciel ouvert et gratuit ou transitent chaque année 120 000 visiteurs qui viennent voir les milliers d’œuvres de la Demeure, mais aussi découvrir comment l’art vit avec l’industrie protéiforme du XXIe siècle.

 

La Demeure du Chaos est le lieu du labeur où travaillent les érudits, mais aussi ma résidence personnelle et celle de mon clan. Sans aucune concession, je marque chaque pierre, chaque toit, chaque sol, chaque arbre, de mes œuvres, comme conformément au postulat du 09/12/1999.

 

Cette dualité qui confronte mon engagement de sculpteur plasticien et auteur depuis 25 ans, à ma transversalité de fondateur d’Artprice, du Groupe Serveur et de ses 12 filiales, est à l’origine de critiques parfois violentes d’un patronat conservateur et étriqué mais elle me permet, en échange, par l’atmosphère onirique du lieu, d’accueillir des scientifiques de premier plan et mutants capables d’affronter n’importe quel système économique quelque soit le continent. Le nombre impressionnant de nationalités diverses et variées témoigne de cette nouvelle Babylone du numérique du savoir et de l'information qu’est La Demeure du Chaos.

 

Les remarques incisives et pertinentes de l’Autorité des Marchés Financiers dans nos désormais célèbres documents de référence pour le marché réglementé, traduisent l’évolution de ma pensée artistique et du passage à l’acte dans le monde économique. Certaines conventions réglementées entre La Demeure du Chaos et les groupes deviennent des prophéties auto-réalisantes où le pouvoir de l’art s’invite dans le monde de la finance. Ma démarche duale enrichit de manière spirituelle La Demeure du Chaos, et de manière matérielle nos 18 000 actionnaires…

 

Comment peut-on bâtir ex-nihilo Artprice, société mythique qui source 90% de la presse mondiale sur l’information du marché de l’art, sans être soi-même, dans sa chair et son âme, un plasticien passionné d’histoire de l’art ?

 

La Demeure du Chaos est une redoutable machine de guerre, un cheval de Troie au cœur des marchés financiers. Elle produit et diffuse des sommes de connaissances inimaginables sur le marché de l’art, du droit, de l’économie, de la science pendant que jours et nuits, nous autres plasticiens, intervenons sur les 9 000 m2 pour (ré)écrire avec notre regard d’artiste, l’histoire du monde dé-légendée.

 

Nos interventions radicales sur la déconstruction de l’habitat professionnel et personnel ainsi que du mobilier a impacté les 2 500 m2 de bureaux où travaillent le Groupe Serveur, ses filiales, et Artprice.

 

Cette démarche humaniste est partagée entre les artistes et les collaborateurs des deux groupes.

 

La Demeure du Chaos possède deux visages : celui de l’Alchimie (L’Esprit de la Salamandre) et celui de l’hyper modernité. Mais elle a aussi deux incarnations : celle de l’incarnat physique, avec ses 3 609 œuvres (sculptures, peintures, installations) gravées dans sa chair, avec son double sur Internet où plus de 1 200 000 sites restituent en photos ou en videos tous les regards du monde sur les entrailles de La Demeure du Chaos lors de leurs visites. Sur Google, en novembre 2007, sur les requêtes “Demeure du Chaos” et “Abode of Chaos”, il sort 1 413 000 résultats pointant sur des millions de photos et vidéos de La Demeure du Chaos.

 

En effet, je suis persuadé que l’Internet est la métaphore du Divin, si ce n’est le Divin lui-même. La voix sèche qui illumine La Demeure du Chaos lui donne le don d’ubiquité entre le monde physique et celui des idées.

 

Lorsque j’ai démarré Internet en 1987, nous étions moins de 50 000 dans le monde mais j’avais la foi dans la plus grande révolution de toute l’histoire du progrès humain. Internet est mon univers depuis 21 ans où j’ai fondé Net Nobility (cf Time Magazine) pour que demeure toujours, par la volonté des pionniers, cet Internet qui est pour moi, le fils naturel de Proudhon et Bakounine.

 

Nous sommes en train à La Demeure du Chaos de participer à la reconstruction de la bibliothèque d’Alexandrie de nos pères.

 

Mémoire du monde selon Philippe Quéau de l’UNESCO, Internet et l'information se joue des frontières, du pouvoir des nations et abolit au passage tous les régimes hostiles à la libre circulation de l’information. Cette dématérialisation de notre ancien monde et de son économie par Internet crée son empire numérique sur le parvis du XXIe siècle sous la forme du grand village glocal (globale

et locale) et chaotique, cher au sociologue Marshall Mc Luhan.

 

 

Ainsi, l’éducation, la recherche, le commerce, l’économie et l’organisation générale des informations vont connaître, en un laps de temps extrêmement réduit, des mutations inimaginables. Jamais dans l’histoire de l’humanité, une révolution scientifique n’a impacté autant de gens, en aussi peu de temps, en tout endroit du monde.

 

Ainsi, plus de 230 états nations qui ont chacun 2 à 3 siècles de cadre législatif et réglementaire

s’annihilent devant une révolution scientifique qui abolit le territoire et le temps. Ce passage du territoire au cyber espace constitue un des grands bouleversements de l’organisation humaine, et il est d’autant plus important d’en comprendre le sens qu’il entraîne une transformation

majeure de la nature même de nos perceptions et de nos rapports sociaux.

Dans l’univers effréné de l’Internet et de la révolution numérique, les entreprises doivent se montrer beaucoup plus protéiformes, capables de changer de profil en un clin d’œil pour s’adapter à de nouvelles conditions économiques draconiennes. La Demeure du Chaos, quartier général du groupe Serveur et d’Artprice, est selon la presse économique anglo-saxonne une forme d’aboutissement ultime d’une économie plus cérébrale, pourrait-on dire, dont l’objet est l’accès au temps et à l’activité de l’esprit.

 

Tous les jours, par La Demeure du Chaos et ses œuvres, nous entrons dans un tout autre monde, beaucoup plus cérébral et immatériel, un monde de formes platoniciennes, d’idées, d’images et d’archétypes, de concepts et de scénarios. Un monde gouverné par la logique de l’accès au savoir, de l'information et du réseau Internet, ce sont les idées qui deviennent la matière première de l’activité économique, et le but suprême est la connaissance universelle à travers les serveurs d’information.

 

 

Governing by Networks

Map of Internet/arpanet sur la Face ouest du Bunker de la Demeure du Chaos

(toile d'acier glycero de 36 m2)

 

La théorie de l'information prend alors tous son sens.

 

Être capable d’étendre à l’infini sa présence mentale, être universellement connecté afin de pouvoir affecter et élever peu à peu la connaissance des êtres humains par la distribution du savoir et de l'information organisés (la banque de données), telle est l’ambition humaniste du troisième millénaire.

 

N’oublions pas que la notion moderne de propriété, caractérisée par la possession privée, l’exclusivité et l’échange marchand, était une des institutions centrales de l’ère industrielle. Au bout de cinq cents ans d’hégémonie, cette vision de la civilisation reposant sur l’échange marchand entre vendeurs et acheteurs de propriété est soumis à une déconstruction radicale qui rejoint le postulat conceptuel que j’ai écrit le 9 décembre 1999 de La Demeure du Chaos.

 

Le nouvel horizon de l’époque est défini par la logique de l’accès au savoir et à l'information par les serveurs, qui nous amène à repenser les rapports économiques, l’action politique et la perception de notre propre identité telle qu’elle émerge du plus profond de la conscience humaine.

 

La Demeure du Chaos est une cité médiévale où, dans l’ombre de nos entrailles, nous travaillons à modifier la vision du monde. Un célèbre analyste de Goldman Sachs résume fort bien le tout : “L’Alchimie est présente partout, même dans vos actions en bourse qui ont connu la plus forte croissance, toutes sociétés confondues. Vous avez créé une Alchimie entre votre folie artistique et votre vision de l’industrie du troisième millénaire dans groupe Serveur”. “Avec Artprice et ses 1 300 000 abonnés, vous faites basculer le marché de l’art dans l’hyper modernité en le dématérialisant”.

 

Quand nos visiteurs économiques repartent ébranlés par cette vision duale de nos groupes dans La Demeure du Chaos, je ne peux m’empêcher de leur dire: vous n’avez encore rien vu ! Ce que nous allons vivre dans les toutes prochaines années dépassera de très loin tous les écrits d’anticipation et de science fiction…

 

Pour comprendre la dualité de ma démarche de plasticien et de bâtisseur du savoir, je reprendrai la citation de mon vieux maître Pythagore le premier des philosophes pour lequel tout est nombre, à l’exception des essences que sont les émotions humaines non quantifiables, indicibles et se jouant des nombres

 

thierry Ehrmann (à suivre...)

A poster for my Data Mining class... I spent a lot of time on this project!

My thesis research involves collecting information about the PhD degrees of I-Schools' faculty. This data mining is quite time-consuming; Georgia Tech has 80 faculty that meet my sampling criteria, UCLA had 66, and that's two out of nineteen. Not all schools have the same quantity or quality of information about their faculty's educational pedigree available online so in some cases the additional information, such as year of PhD and department granting the degree, are found in the UMI Dissertation Abstracts database, but there are still some blanks to fill in. Everything here was collected by hand from public sources under IRB exemption.

 

Before the advent of the Internet, this information would have been collected by survey or through a published directory for an academic field (nonexistant for this community). Biases in web-collected data of this nature exist, but are a lesser evil compared to the biases of other methods that are subject to problems with response rate and/or significant time lag to publication.

Fascinating slide from Jon Orwant of Google Books.

Just saw this at a bookstore. Flicked through it, looks great, doesn't seem like a fluff piece. Lots of mathematical symbols everywhere, transformation methods etc. Will buy lots of stuff like this when I'm rich. read on

Network servers in a data center. Shallow depth of Field

1 3 4 5 6 7 ••• 28 29