4.최종 보고

                    종합설계 프로젝트 최종보고서 요약

팀명

 코코넛

제출일

2012 5 29

프로젝트 제목

 Real-Time Language Translation Using Image Processing

설계 프로젝트 개요

프로젝트 수행 내용 및 중간 결과


프로젝트 요약문

 본 프로젝트는 일상 생활에서 마주치게 되는 수 많은 외국 단어들의 의미를 알고자 할 때 전자 사전을 이용하는 번거로움을 해결해주기 위한 실시간 언어 번역 어플리케이션 개발이다.  먼저 기존 번역기에서 직접 입력해야 하는 부분을 영상으로 직접 전달 받는다. 그리고 화면을 터치하게 되면 단어가 번역이 되는 어플리케이션이다. 이 어플리케이션의 장점은 기존의 번역기를 사용 할 때보다 수행시간을 더욱 단축시킬 수 있고 간편하다는 점이다. 또한 번역된 단어를 음성으로 읽어주는 기능도 탑재할 것이므로 늘어나는 유학생들과 관광객들에게 유용할 것으로 전망된다.


마일스톤 수행 내용

1. 계획서 발표 - 2012-03-01

    (1) 개발 환경 완성

    (2) 모듈 별 역할 분담

2. 설계 완료 - 2012-03-09

    (1) 시스템 설계 완료

3. 1차 중간 보고 - 2012-03-21

    (1) 영상 전처리 완료

    (2) 유저 인터페이스 모듈 베이스 완료

    (3) 내부 사전 DB 구성 완료

4. 2차 중간 보고 - 2012-04-10

    (1) 언어 인식 모듈 완료

    (2) 유저 인터페이스 모듈 완료

    (3) 사전 DB 모듈 완료

5. 구현 완료 - 2012-05-01

    (1) 시스템 구현 완료

6. 테스트 - 2012-05-11

    (1) 시스템 통합 테스트

7. 최종 보고 - 2012-05-29

    (1) 최종 보고


최종 보고 요약

 제안서와 계획서에서 제시한 방향으로 프로젝트를 진행하였고 영상 처리를 위한 연구와 구현이 잘 이루어졌으나 언어(철자) 인식을 위해 구조적 특징 추출 방법을 썼으며 기술적인 부분에서 난관에 부딪혀 프로젝트를 100% 완료하지 못하였다. 현재 어플리케이션은 초기 목표처럼 전체 화면 번역이 아닌 부분적 번역이 가능하고 화면 하단부에 단어의 뜻을 보여주는 형태로 완성되었다. 따라서 이 문제를 향후에 해결하기 위하여 DB를 확장하고 언어 인식 모듈을 개선해 나가야 한다.


프로젝트 결과



 1. primitive 추출에서는 line인식까지 구현이 되었으나 곡선 및 primitive들의 조합과 해당 문법으로의 전달이 정확히 이루어지지 않았다.

2. 문법적으로는 구현이 되었으나 primitive 추출 결과와의 매칭이 제대로 이루어지지 않아 작성된 문법이 available한지 여부를 테스트 해 볼 수가 없었다.

3.  이에 단어 인식이 이루어지지 않았기에 open Library를 사용하여 인식파트를 구현하였다. 인식부분을 제외한 나머지 부분은 계획서의 plan을 완성하였다.

동영상

YouTube 동영상


Ċ
markers@cs.kookmin.ac.kr,
2012. 5. 29. 오전 7:35
Ċ
markers@cs.kookmin.ac.kr,
2012. 5. 29. 오전 7:29
Ċ
markers@cs.kookmin.ac.kr,
2012. 5. 29. 오전 2:23
Comments