Computer Scientist들을 위한 추천 블로그 (1)

오늘은 Computer Science 분야의 문제들 및 최신 이슈들을 다루는 몇몇 유명 블로그들을 소개하려고 한다. 워낙 유명한 블로그들이라 이미 많은 분들이 아실꺼라 생각이 들지만 혹시 모르는 분들이 있을까 이렇게 소개해 본다.

  • The Database Column – 말 그대로 데이터베이스 이슈들을 다룬다. 최근에는 클라우드 컴퓨팅에 대한 이슈도 언급된다. 이 블로그는 진짜 짱인게 Samuel Madden
  • Gödel’s Lost Letter and P=NP제목만보면 NP문제를 주로 다루는 것 같지만 다양한 문제들과 알고리즘들을 다루고 있다(사실 오늘 발견함). 상당히 유익해 보이는 반면 어려워 보인다 (@_@).
  • All Things Distributed – Amazon CTO인 Werner Vogels의 블로그 이다. Scalable and distributed Computing에 대한 이슈를 다룬다.

원래 계획은 5개씩 소개하여 2회에 총 10개 소개였는데 요즘 포스팅 거리도 없고 하니…… 나머지는 다음에 이어서 쓰겠다.


덧붙임. 저 블로그들에 읽고 싶은 글들은 많은데 업데이트되는 수가 장난이 아니라…따라가기 참 힘들구나 ~(~_~)~


BBC의 Linked Data 지원

BBC는 자신들이 보유한 TV, Radio 프로그램과 뮤지션 그리고 엘범에 대한 정보를 Linked Data로 제공한다. 이를 위해 SPARQL Endpoint (http://bbc.openlinksw.com/sparql)도 제공한다. (관련 글: http://welcomebackstage.com/2009/06/bbc-backstage-sparql-endpoint )

Linked Data는 인터넷 상에서 고유의 식별자인 URI를 통해 상호간 링크를 가지는 시맨틱 웹 데이터를 공유하자는 개념이다. Tim Burners Lee와 W3C에 의해 주도적으로 차세대 웹을 이끌고 있는 개념이다. (다 자세히 알고 싶으면 http://linkeddata.org <- 방문해 보시라, 저 거미줄 처럼 연결된 데이터들로 부터 얼마나 재미있는 서비스들이 나올까?)

그리고 SPARQL Endpoint는 일종의 웹상에서 일종의 API와 같은 개념으로 데이터를 직접 가지고 있지 않아도 서비스 제공자의 SPARQL Endpoint를 통해서 질의를 결과를 얻을 수 있도록 한다.  프로그램이 처리하기 좋은 형태의 데이터로 결과값을 반환하게 된다.

최근 추세를 보면 점차 링크드 데이터가 보급되고 있는 것 같으며 시맨틱 웹이 실현될 날이 얼마 남지 않았다는 걸 느낀다. 이미 한발은 선을 넘은 것 같아 보인다.

여담이지만.. BBC의 informative한 웹 사이트나 Linked Data 지원이나 뉴욕 타임즈의 타임즈 머신(TimesMachine – http://timesmachine.nytimes.com/browser ) 프로젝트를 보면 저런 언론사를 가지고 있는 저들이 정말 부러울 뿐이다. 한편 들어가자 마자 플래쉬 광고가 기사 헤드라인을 덮어 버리고 성인 광고과 좌우에서 깜빡이는 ㅈㅈㄷ 사이트를 보면 부끄러울 뿐이다. (명색이 지들 딴에는 우리나라 대표언론사가 아닌가?)


Hadoop: The Definitive Guide

O’REILLY 에서 책이 출시 된 것 같네요. http://oreilly.com/catalog/9780596521974/
다음과 같은 내용을 다루고 있다고 합니다.

  • Use the Hadoop Distributed File System (HDFS) for storing large
    datasets, and run distributed computations over those datasets using
    MapReduce
  • Become familiar with Hadoop’s data and I/O building blocks for compression, data integrity, serialization, and persistence
  • Discover common pitfalls and advanced features for writing real-world MapReduce programs
  • Design, build, and administer a dedicated Hadoop cluster, or run Hadoop in the cloud
  • Use Pig, a high-level query language for large-scale data processing
  • Take advantage of HBase, Hadoop’s database for structured and semi-structured data
  • Learn ZooKeeper, a toolkit of coordination primitives for building distributed systems

그동안 소스도 분석해 보고 Hadoop 기반 어플리케이션도 짜보고 했지만 좀 더 체계적으로 알고 싶은 마음에 질러볼까합니다.
그런데 바빠서 볼 수 있을지 ~(~_~)~