

Keynote1 [10:10~10:50]
![]() |
Title | The Changing Cloud Landscape: The Google Approach |
Name | Cory Franzmeier, Head of Cloud Platform, Google APAC | |
Speaker Profile | Cory has over 15 years working with customers across the IT spectrum. During the last 4 years, Cory has worked at Google passionately helping companies utilize the power of the Cloud. He leads the Google Cloud Platform team for all of Asia Pacific.
아시아 태평양 지역의 구글 클라우드 플랫폼을 이끌고 있는 코리는 지난 15 년 동안 다양한 IT 스펙트럼에 걸쳐 고객과 협력하고있다. 4년전 구글에 합류한 이후에는 열정적으로 기업이 클라우드의 힘을 활용할 수 있도록 돕고있다. |
|
Presentation Summary |
Over the last decade, Google has built an infrastructure that can serve 4 billion hours of video every month, support 425 million Gmail users and store and manage over 100 petabytes of web index. Now, businesses can take advantage of the same scale and efficiency enjoyed by Google applications via the Google cloud platform. This presentation will discuss how Google Drive, together with Google Apps helps businesses in their journey towards a virtual IT environment. We will delve into customer success stories and take an inside look into how Google has helped transform their IT operations and ultimately, changed the way they do business.
지난 십 년간, 구글은 매달 40 억 시간의 비디오와 4억 2천 5백만의 Gmail 사용자에게 100 페타 바이트에 이르는 웹 인덱스를 저장하고 관리 할 수있는 인프라를 구축했다. 이제 기업은 구글 클라우드 플랫폼을 통해 구글 응용 프로그램에서 즐길 수 있었던 규모와 효율성을 비즈니스에 활용할 수 있다. 이번 발표에서는 구글이 제안하는 기업의 비즈니스와 IT 운영을 혁신을 위한 방안과 고객 성공 사례를 소개하고, 구글 드라이브, 구글 앱스와 함께한 가상화 IT 환경으로의 여정을 설명한다. |
Keynote2 [11:00~11:40]
![]() |
Title | Big Data Architecture & service in the Cloud |
Name | Amazon Web Service, APAC Technical Evangelist, Markku Lepisto | |
Speaker Profile | 아마존 웹 서비스(Amazon Web Service)의 아시아 태평양 지역본부 기술 에반젤리스인 마르쿠는 지난 14 년 동안 IT 업계에서 R&D, 기술 지원 및 아키텍처 등 다양한 기술 및 관리 직책을 역임했다.
AWS에 합류하기 전에는 노키아 지멘스 네트웍스의 글로벌 사업 부문에서 기술 변화와 클라우드 컴퓨팅 아키텍처를 이끌었고 핀란드와 중국에서 근무했다. Markku is the APAC Technology Evangelist at Amazon Web Services. He has been in the IT industry for 14 years, and has held various technical and management positions, covering R&D, technical support and architecture. For the past couple of years, Markku was responsible for the cloud computing architecture and technology transformation of Nokia Siemens Networks' global business units. Markku has worked out of Finland, China and Singapore. |
|
Presentation Summary |
클라우드 컴퓨팅 환경이 제공하는 이점인 유연성과 가용성은 빅데이터의 활용을 위해 중요한 요소이다.
이번 발표에서는 아마존 웹 서비스가 제공하는 클라우드 컴퓨팅 환경 위에서 간단히 구성할 수 있는 빅데이터 아키텍쳐와 서비스 단순화 방안에 대하여 설명한다. In this keynote, learn how the elastic, on-demand nature of cloud computing benefits big data workloads. And get an understanding how you can easily outsource and simplify your big data architectures, levering services in the AWS Cloud. |
Keynote3 [11:40~12:20]
![]() |
Title | 경험을 통해 체계화 한 빅데이터 접근법 |
Name | 한국EMC 글로벌 서비스 이달수 상무 | |
Speaker Profile | . 한국EMC, 2010~현재
. 한국IBM, 1995~2010 . 동양정보통신, 1993~1995 |
|
Presentation Summary |
다양한 빅데이터 경험을 통해 정립한 EMC의 빅데이터 프레임 워크를 소개합니다. 이는 빅데이터를 보다 쉽게 이해하고, 실행 계획 수립에 도움이 될 것입니다. 또한 성공적인 빅데이터를 실현하기 위해 무엇을 생각하고, 준비하고, 활용해야 하는지에 대한 접근법을 공유합니다. 이는 빅데이터를 실행하는데 있어 리스크를 줄이고, 현실적으로 빅데이터를 완성할 수 있는 지침이 될 것입니다. |
TrackⅠ[14:00~14:40]
![]() |
Title | Big Data의 실시간 활용을 위한 Data Visualization |
Name | TIBCO Software 임상수 이사 | |
Speaker Profile | TIBCO Software Korea Senior Solution Consultant, Data Visualization 및 Big Data 활용에 대한 다수의 컨설팅 및 발표 수행 | |
Presentation Summary |
- Data 분석 솔루션의 트랜드: 전문가, 분석가 중심의 분석 솔루션과 현업 사용자 중심의 visualization 중심 솔루션이 점차 상대방의 장점을 수용해가고 있음
- Big data의 활용에 visualization이 필요한 이유: 다양한 소스로부터 매우 짧은 주기로 쏟아져 나오는 데이터에서 가치 있는 결과를 얻기 위해 직관적으로 결과를 찾아낼 수 있는 visualization 솔루션이 각광받고 있음 - Data Visualization 솔루션의 특징: 사용자 중심의 편의성, 데이터의 자유로운 결합, 예측 분석, 다양한 협업 등 - 활용 사례 |
Track I [15:00~15:40]
![]() |
Title | 빅데이터 분석을 위한 하이퍼포먼스 BI 기술 |
Name | MicroStrategy 김연희 부장 | |
Speaker Profile | 김연희 부장은 마이크로스트레티지 코리아 기술 본부에 재직 중인 BI 전문가로서 관련 분야에서 14년의 경험을 가지고 있으며, SK 텔레콤, KT,하나로텔레콤,KTF 등 통신 분야 BI 구축에 참여해 성공적인 구축을 이끈 바 있다. 특히 마이크로스트레티지 제품을 10년 이상 경험한 마이크로스트레티지 제품 전문가로서 마이크로스트레티지가 추구하는 엔터프라이즈 BI 개념을 적용해 기업 내부/외부의 대규모 사용자가 대용량 데이터에 대한 상세 레벨의 분석까지 접근할 수 있도록 하는 기술 확산에 기여해 왔다. 마이크로스트레티지 코리아에 합류하기 전에는 SKC&C 컨설팅본부에서 분석 CRM 컨설팅 및 구축 업무를 수행했으며, 95년 이화여자대학교 통계학사에서 이학사 학위를 받았다. | |
Presentation Summary |
마이크로스트레티지는 이미 스프레드시트, 관계형 데이터베이스 및 컬럼 기반 데이터베이스, 어플라이언스, SaaS 기반 애플리케이션 데이터, 빅데이터 소스 등 모든 데이터 소스에 대한 액세스를 지원하고 있다. 새롭게 부상한 하둡 분산(Hadoop distributions)을 위한 새로운 데이터 커넥터까지 지원하며, NoSQL 데이터 소스에 대한 액세스를 추가 제공한다. 이번 세션에서는 마이크로스트레티지가 어떻게 빅데이터를 분석하는지 자세히 소개한다. |
Track I [15:40~16:20]
![]() |
Title | Redis 운영관리와 분산 설계 |
Name | Kakao 강대명 Software Engineer | |
Speaker Profile | (현) Kakao 강대명 Software Engineer | |
Presentation Summary |
Redis 운영을 위해 알아야 할 지식들
Redis 관련 HA 방안 분산 설계 전략 |
Track Ⅱ [13:20~14:00]
![]() |
Title | Big Data를 위한 Enterprise Data Storage |
Name | DELL 정연구 부장 | |
Speaker Profile | - 2012 ~ 현재 ) Dell 코리아, Enterprise Solutions Group, Enterprise Storage 기술 담당
- 2008 ~ 2012 ) Brocade 코리아, DataCenter 가상화 및 Fiber Channel Networking 기술 담당. - 2001 ~ 2008 ) IBM, System and Technology Group, Storage 기술 담당 |
|
Presentation Summary |
- Big Data trends, challenges and customer pain points in a perspective of Data Storage.
- Why Dell’s Storage approach is different and better for Big Data storage - Some cases of how Dell’s Storage support and meet big data design and customer’s business goals |
TrackⅡ [14:00~14:40]
![]() |
Title | 외부침입/내부정보유출 이상징후 예측 위한 빅데이터 통합 보안분석 구축사례 |
Name | KT NexR 기술컨설팅팀 백민경 차장 | |
Speaker Profile | 건국대학교 정보통신대학원 정보보안 석사, CISSP
* 現 kt NexR 기술컨설팅팀 보안기술컨설턴트 * 前 Symantec Korea DLP Solution Technical Champion * 前 안철수연구소 Security Architech |
|
Presentation Summary |
보안을 위협하는 방식이 나날이 진화하고 고도화됨에 따라 기업에서는 보안 관리를 위해 다양한 네트워크 영역에서 보안 솔루션을 운영 및 관리하고 있다. 그러나, 분석 대상의 범위가 확대 되고 각 솔루션에서 많은 양의 데이터가 생산됨에 따라 데이터를 통합 관리하여 장기간 로그관리, 이기종 솔루션 통합관리, 상관관계분석의 필요성이 대두되고 있다. 이를 해결하기 위해 최근 떠오르는 이슈는 보안을 위한 빅데이터이다.
이번 발표에서는 기존 보안 환경의 문제점을 진단하고, 이 문제점을 해결하기 위한 대안으로서 빅데이터 통합 보안 분석을 제시한다. 기존의 보안 솔루션에 빅데이터 기술을 적용함으로써, silo로 존재하는 각각의 보안 솔루션에서 발생하는 보안로그 데이터를 모두 하나의 플랫폼에 통합하고 연계분석, 상관관계분석으로, 기존에 발견하지 못했던 인사이트를 발견할 수 있게 된다. 이를 통해 정상적인 활동에서 비정상 패턴 예측, APT공격에 대한 사전 예측 제공, White List 기반의 방화벽 운영 근거 자료 마련, 효율적인 컴플라이언스 관리 등이 가능해진다. kt NexR이 A사에 보안 프로젝트 수행한 결과, 컴플라이언스원스톱 프로세스 및 내부정보 유출 추적 관리 프로세스 구축하고, 기존 시스템에서 파악이 불가능했던 새로운 패턴의 보안 취약점에 대한 선제적 대응 프로세스 구축한 사례를 소개한다. |
Track Ⅱ [15:40~16:20]
![]() |
Title | 빅데이터 탐색을 통한 경쟁력 확보 및 비즈니스 가치 창출 |
Name | Teradata 구태훈 이사 | |
Speaker Profile | 1. 現 테라데이타에서 빅데이터 및 비즈니스 컨설팅 담당 이사
- 현대자동차, 이마트, SC제일은행, GM Korea 등에서 컨설팅 수행 - 국가 빅데이터 포럼 및 빅데이터 국가 전략 포럼 전문위원 - 삼성전자 첨단기술연수소 빅데이터 강사 - 데이터사이언티스트 과정 강사 2. 이네트 eCRM/CRM R&D 팀장 및 사업총괄 이사 3. 코스닥증권거래소 DW/KM 담당 |
|
Presentation Summary |
빅데이터 탐색이 기존 방법과 어떻게 다르고 어떤 절차를 통해서 비즈니스 가치를 찾을 수 있는지 알아보고 금융, 유통, 통신, 제조 등의 산업에서 어떻게 빅데이터 탐색을 통해서 가치 창출을 시도하고 있는지 활용 사례를 기반으로 설명합니다. 특히 각 산업의 다음과 같은 문제 영역에 대해서 어떤 탐색 및 분석 방법을 통해서 새로운 가치를 창출했는지를 살펴보겠습니다.
- 시계열 기반의 고객 경로 및 상품 패턴 분석 - 마케팅 센싱 및 효과 분석 - 제품 개발 및 품질 분석 - 개인화 기반의 상품 및 콘텐트 추천 그리고 이러한 비즈니스 가치 실현을 위한 테라데이타 통합 데이터 아키텍쳐(Teradata Unified Data Architecture)를 소개하고, 빅데이터 탐색을 위한 최적 솔루션인 테라데이타애스터 탐색 플랫폼(Teradata Aster Discovery Platform)을소개합니다. |
Track III [13:20~14:00]
![]() |
Title | Making Big data work for everyone |
Name | MapR, Principal Data Scientist, Allen Day | |
Speaker Profile | Allen has been working on scientific computing and BigData problems for 15 years, first with Beowulf clusters and Hadoop since 2008. Allen created one of the first video discovery platforms for mobile phones, and also built the largest public database of human gene expression data. As an open source developer, Allen has authored R and Perl libraries and most recently contributed to Storm. Allen has founded and co-founded multiple machine learning and biotech companies, and he holds a Ph.D. in Human Genetics from the School of Medicine at UCLA.
알렌은 지난 15 년 동안 컴퓨터 과학과 빅데이터 문제에 대한 연구를 진행하고 있다. 휴대 전화를 위한 첫 번째 비디오 검색 플랫폼 중 하나를 개발했고, 인간 유전자 데이터 분야에서 가장 큰 공공 데이터베이스를 구축한 그는 오픈 소스 개발자로, R과 Perl 라이브러리를 작성했고, 최근에는 스톰(Storm) 프로젝트에 공헌했다. UCLA 유전학 박사인 알렌은 바이오 기술 및 머신러닝 분야에서 여러 회사를 설립했다. |
|
Presentation Summary |
Making Big data work for everyone
기업 경쟁력 확보를 위한 빅데이터의 활용에 대하여, 다양한 사례와 함께 발표한다. |
Track III [14:00~14:40]
![]() |
Title | Hadoop 2.0 and beyond The future of big data platform |
Name | Hortonworks, Technical Director, Jeff Markham | |
Speaker Profile | Jeff Markham is the Technical Director, APAC for Hortonworks. He is responsible for leading the Hortonworks practice in the region and assisting corporations both big and small in using Apache Hadoop as a competitive advantage. He is co-author of Hadoop 2: YARN Best Practices in the Hadoop Ecosystem. He has also contributed to the Pig and HDFS projects.
호튼웍스의 기술 이사인 제프 마컴은 아파치 하둡을 활용하여 경쟁 우위 확보를 확보하고자하는 기업들을 지원하고 있다. 하둡 2(YARN, 하둡 생태계의 모범사례)의 공동 저자이기도 한 그는 아파치 Pig와 HDFS 프로젝트에 기여하고있다. |
|
Presentation Summary |
Hadoop 2.0 and beyond The future of big data platform
이번 발표에는 최근 릴리즈된 하둡 2.0의 효용과 YARN에 대하여 논의한다. |
Track III [15:00~15:40]
![]() |
Title | Apache Hive를 비즈니스 인텔리전스에 맞게 개선하는 Stinger Initiative |
Name | 최종욱 Apache Hive Contributor | |
Speaker Profile | (전) KT 넥스알 빅데이터 본부 오픈소스테크팀 선임 연구원 | |
Presentation Summary |
- Apache Hive를 비즈니스 인텔리전스 용도에 맞게 개선하는 Stinger Initiative
- SQL on HBase 분야에서의 Hive |
TrackⅢ [15:40~16:20]
![]() |
Title | How Cloudera Impala has Pushed HDFS in New Ways |
Name | Cloudera, Software engineer, Andrew Wang | |
Speaker Profile | Andrew Wang is a software engineer at Cloudera on the HDFS team. Previously, he was a PhD student at UC Berkeley where he worked on problems related to storage and distributed systems. He is a committer on the Apache Hadoop project, and holds masters and bachelors degrees in computer science from UC Berkeley and UVa respectively.
앤드류 왕은 클라우데라 HDFS팀의 근무하면서 아파치 하둡 프로젝트의 커미터로 활동하고 있다. 그는 UC버클리에서 분산 시스템과 스토리지 분야 박사 과정을 밟았으며, UC버클리와 UVA에서 컴퓨터과학 석사 및 학사 학위를 받았다. |
|
Presentation Summary |
HDFS (Hadoop Distributed FileSystem) was designed to support batch analytics frameworks like Apache MapReduce, Hive, and Pig. However, Cloudera Impala's relentless push for low-latency has pushed HDFS to deliver the next level of performance in terms of latency, throughput, and efficiency. In this talk, I will go over the high-level architecture of HDFS and Impala, and describe a number of HDFS improvements that have been motivated by Impala, such as disk-level scheduling information, block co-location, short-circuit local reads, and in-memory caching.
하둡 분산 파일 시스템(HDFS)은 아파치 맵리듀스,하이브,Pig처럼 Batch 분석 프레임워크를 지원하기 위해 설계되었다. 클라우데라 임팔라(Impala)는 낮은 처리 대기 시간, 처리율 및 효율성의 관점에서 한 단계 높은 수준을 제공하기 위해 노력하고 있다. 이번 발표에서 HDFS와 임팔라의 높은 수준의 아키텍처를 소개하고, 임팔라(Impala)를 통해 HDFS의 어떤 부분이 크게 개선되었는지 설명한다. (disk-level scheduling information, block co-location, short-circuit local reads, and in-memory caching.) |
Track Ⅳ [13:20~14:00]
![]() |
Title | Big Data의 실시간 활용을 위한 Data Visualization |
Name | TIBCO Software 이석진 상무 | |
Speaker Profile | - TIBCO Korea 컨설팅 총괄
- Computer Science 및 경영 컨설팅 전공 - 20 여 년간 LG전자, LG텔레콤, POSCO, 정통부, 코오롱그룹, 한화그룹, 정통부 등 제조/통신/공공 산업의 주요 Global 기업에서 EA/ISP/ERP/MDM/SOA/BPM/BI 등 차세대 프로젝트의 아키텍트/PM 역할을 수행 - 현재 TIBCO Korea 의 컨설팅 전체 총괄을 맡고 있으며 기업의 실시간 통합 환경 구축 및 Event Enabled Enterprise 에 대한 전략 및 컨설팅을 제공하고 있음. |
|
Presentation Summary |
- 최근의 BigData 는 배치/오프라인 수집/분석에서 실시간의 처리로 진화 되고 있습니다.
- 실시간 수집/실시간분석/실시간 실행 및 처리를 하기 위한 Real-Time BigData Platform의 Reference Architect 를 제시하고, 구축을 위한 전략 및 방안을 사례와 함께 제시하여 Real-Time Bigdata 를 구축하기 위한 방안을 제시합니다. |
Track Ⅳ [14:00~14:40]
![]() |
Title | Flamingo Project Apache Hadoop 개발 및 운영 오픈소스 관리 프레임워크 |
Name | Cloudine, 김병곤 대표이사 | |
Speaker Profile | - (현) 클라우다인 대표이사
- (전) JCO(한국자바개발자협의회) 6대회장 - (전) 지경부/NIPA SWMaestro Mentor - (전) Open Flamingo Founder - (전) JBoss User Group 대표 |
|
Presentation Summary |
Big data 오픈 소스 프로젝트, 플라멩고에 대해 설명한다. |
Track Ⅳ [15:00~15:40]
![]() |
Title | SK텔레콤 실시간 빅데이터 플랫폼 구축사례 |
Name | SK telecom 홍태희 매니저 | |
Speaker Profile | (현) SK텔레콤 네트워크운용본부 NMC 매니저
(현) 클라우드 컴퓨팅 구현기술 커뮤니티 운영진 (전) 삼성SDS 멀티캠퍼스 Hadoop 강사 (전) 삼성SDS Bioinformatics Lab. 연구원 (전) 한국생명공학연구원 KOBIC 연구원 |
|
Presentation Summary |
SK텔레콤의 전국 네트워크망에서 생성되는 로그 데이터를 실시간으로 처리하기 위한, 오픈소스 기반(Flume, Storm, Hadoop 등)의 실시간 데이터 수집 및 분석 플랫폼 구축사례를 소개하고 시스템 아키텍처 및 플랫폼 구축 시 고려사항들에 대해 이야기 한다. |
Track III [15:00~15:40]
![]() |
Title | Apache Hama: BSP기반의 고급 분석 |
Name | Apache Software Foundation 윤진석 | |
Speaker Profile | - Officer, Apache Software Foundation
- Vice President, Apache Hama - PMC member/committer, Apache BigTop - PPMC member/committer, Mentor, Apache MRQL - Google GSoC 2011 ~ 2013 멘토 |
|
Presentation Summary |
본 세미나에서는 현재 아파치 재단 최상위 프로젝트로 진행되는 Hadoop 생태계의 과학연산 분산 컴퓨팅 솔루션인 아파치 하마 프로젝트를 소개하고 그 응용범위, 벤치마킹 결과 및 Sogou.com 등에 현실세계에서 활용된 실사례를 소개한다. 더불어, Hadoop 2.0 등 향후 빅데이터 분산 처리 분야의 동향을 공유한다. |
[Closing Keynote] 16:30~17:20
![]() |
Title | Growing Up : Hadoop At LinkedIn |
Name | LinkedIn, Staff Software Engineer, Richard Park | |
Speaker Profile | 링크드인(LinkedIn)의 하둡 인프라 개발의 초기부터 활약하고 있는 리처드 박 스텝 소프트웨어 엔지니어는 2009년 이래 하둡 개발자 그룹의 일원으로 활동하고 있다.
링크드인에 합류하기전에는 페이팔(PayPal)에서 사기 탐지 업무(The fraud detection group)를 담당했으며, 현재 아즈카반(Azkaban)의 수석 개발 업무와 함께 아파치 카프카(Apache Kafka)등 오픈 소스 프로젝트에 기여하고있다. Richard Park is a software engineer at LinkedIn and has been a member of their Hadoop Developer group since 2009. He has been an instrumental part of developing LinkedIn’s Hadoop infrastructure. He is the lead developer on Azkaban and has contributed to open-source projects including Apache Kafka. He has previously worked at PayPal in the fraud detection group. |
|
Presentation Summary |
매일 이루어지는 수천개의 하둡 관련된 작업은 링크드인에서 제공하는 '지인을 찾아보세요(People You May Know)'부터 '추천 채용 공고(Job Recommendations)'까지 데이터 기반 서비스 운영을 위해 실행 및 지원한다.
링크드인은 매일 테라바이트 이상의 데이터를 하둡 분산 파일 시스템(HDFS)으로 안정적으로 유입하고 처리하여 2억 5천 9백만 회원에게 정보를 제공한다. 오늘 링크드인이 빅데이터 기반으로 제공하고 있는 서비스 레벨에 이르는 과정은 쉽지 않은 여정이었다. 4 년 전, 소수 제품의 대한 데이터를 생성하기 위한 십여개의 노드와 최초의 하둡 클러스터를 설정한 것으로 시작하여, 수백개의 다양한 서비스와 많은 사용자를 지원하기 위한 클러스터 크기는 수천 개의 노드로 확장되었다. 이번 세션에서는 링크드인이 하둡을 사용하면서 직면했었던 확장에 대한 문제와 이를 해결하기위한 시도들을 소개하고 링크드인이 생각하는 하둡 기반 서비스의 미래 모습에 대하여 논의 한다. Thousands of Hadoop jobs run daily to power many of LinkedIn's data products, from People You May Know to Job Recommendations. Every day, terabytes of data need to reliably flow into HDFS, be processed, and pushed out to our 259 million LinkedIn members. However, it hasn't always been an easy journey for LinkedIn to get where we are today. Four years ago, LinkedIn set up its first Hadoop cluster with only a couple dozen nodes to produce data for a handful of products. Since then, the cluster size has grown to thousands of nodes to support hundreds of users and hundreds of different products. This talk will cover how LinkedIn uses Hadoop, the challenges we faced scaling and the trials we have faced and will face in the future. |

행 사 명: | The 10th Advanced Computing Conference | |
주 제: | Big Data driven Business & Hadoop 2.0 | |
일 시: | 2013년 11월 19일 (화) 09:00~18:00 | |
장 소: | 잠실롯데호텔 3층 크리스탈볼룸 | |
주최주관: | (주)메가뉴스, ZDNet Korea |






